Narodziny ery platform agentowych – Somya Kapoor, CEO IFS LOOPS

Somya Kapoor IFS Loops

Platformy agentowe stają się jednym z najważniejszych kierunków rozwoju technologii dla przedsiębiorstw. Zamiast prostych automatyzacji firmom coraz częściej zależy na wieloagentowych, współpracujących ze sobą „cyfrowych pracownikach”, którzy potrafią realizować całe procesy, a nie tylko wybrane zadania. Somya Kapoor, CEO IFS Loops, opowiada o tym, dlaczego warto zaczynać od małych, dobrze dobranych wdrożeń, jak budować zaufanie do systemów autonomicznych i czym prawdziwe platformy agentowe różnią się od chatbotów, które znamy z wcześniejszych generacji narzędzi. 

 

The Loops jest dziś przedstawiany jako lider agentów AI w obszarze obsługi klienta. Jak w tym kontekście definiujecie „agenta” i czym różni się on od klasycznej automatyzacji lub chatbotów? 

Zanim IFS przejął Loops, byliśmy już gotową platformą agentową. Nie zaczynaliśmy od chatbota ani od automatyzacji pojedynczych zadań, by potem doklejać kolejne moduły. Od razu budowaliśmy wszystko na koncepcji wieloagentowej, gdzie różne cyfrowe „osoby” mogą współpracować i przekazywać sobie kontekst. Nasza pierwsza aplikacja była związana z CX, bo to naturalne miejsce startu, ale od początku zakładaliśmy szersze wykorzystanie, również w CRM, SEM czy ERP. I to właśnie głębia platformy pozwoliła nam skalować się dalej. 

Trzeba też jasno powiedzieć, że agent AI to nie jest to samo, co automatyzacja. Dzisiaj na każdej konferencji ktoś używa tego słowa, ale automatyczna reguła czy chatbot odpowiadający na pytania nie jest agentem. Prawdziwy agent jest wielowątkowy, potrafi podejmować decyzje w określonym zakresie, współpracuje z innymi agentami i operuje na podstawie kontekstu, a nie prostego zbioru „wyzwalaczy”. My budowaliśmy dokładnie takie systemy. 

Po przejęciu przez IFS nie zmieniliśmy podejścia. W mniej niż cztery miesiące wdrażaliśmy platformę u klientów, pokazując realne efekty. Kluczowe było to samo myślenie: jeden proces naraz, jeden cyfrowy pracownik naraz, mierzona wartość i dopiero potem skalowanie. Jeśli próbujesz zrobić wszystko jednocześnie, „zagotować ocean”, kończysz z obietnicami, których nie da się spełnić. Nasza strategia, małe kroki, ale konsekwentnie, działała i nadal działa. 

 

Z jakimi wyzwaniami firmy mierzą się najczęściej, przygotowując dane do wdrożeń AI?

Największe wyzwanie pojawia się wtedy, kiedy organizacja zaczyna od zbyt dużego zakresu. Wybierają przypadek użycia obejmujący kilka działów, mnóstwo źródeł danych i wiele procesów naraz. Wtedy trudno się dziwić, że wdrożenie staje się niewykonalne. Zawsze powtarzam: zacznij od małego, dobrze określonego procesu i połącz jeden lub dwa kluczowe źródła danych. To daje realne rezultaty.

Drugim problemem jest szum informacyjny. Każdy dostawca ma własną narrację o AI i nazywa swoje rozwiązanie agentem, co często wprowadza firmy w błąd. Dlatego tak ważny jest wybór partnera, który naprawdę ma doświadczenie, a nie tylko język marketingowy. Partner powinien też stawiać na otwarte ekosystemy, a nie zamykać dane w jednym miejscu. 

I jeszcze jedna rzecz – dane nigdy nie będą idealne. Od lat mówi się o „przygotowywaniu danych”, ale w praktyce liczy się to, czy są w formacie, który pozwala wykorzystać je w procesach biznesowych, a nie czy spełniają teoretyczne ideały. AI readiness to kierunek i struktura, nie perfekcja. Najpierw mały krok, później skalowanie. 

 

Jakie zastosowania AI w obsłudze klienta przynoszą dziś największy efekt?

Automatyzacja pierwszej linii kontaktu daje bardzo szybki efekt, bo tam trafia ogromna liczba powtarzalnych pytań. Agent robi różnicę, bo odciąża pracowników i zmniejsza liczbę rutynowych czynności. Kolejkowanie i automatyczne kierowanie spraw to kolejny obszar, w którym wiele firm nadal pracuje w sposób ręczny. A agent może robić to szybciej i precyzyjniej, bazując na kompetencjach zespołu i historii rozwiązywania podobnych problemów.

Ogromną zmianą jest też jakościowa analiza zgłoszeń. Kiedyś zespoły były w stanie przejrzeć kilka procent ticketów. Dziś platformy agentowe analizują wszystkie i wskazują priorytety szkoleniowe. No i oczywiście, powtarzalne zgłoszenia: reset hasła, blokady kont, podstawowe problemy techniczne. To wszystko da się w pełni zautomatyzować. Ludzie mogą skupić się na pracy, która naprawdę wymaga ich uwagi. W obszarze CX wartość jest widoczna natychmiast. Widzimy to u większości klientów. 

 

Somya Kapoor IFS Loops

 

Jak zapewnić zaufanie, „wyjaśnialność” i kontrolę, gdy to autonomiczni agenci wpływają na doświadczenie klienta lub KPI biznesowe?

Zaufanie zaczyna się od bezpieczeństwa i governance. Dane nie mogą trafiać tam, gdzie nie powinny. Do modeli przesyła się wyłącznie metadane i żadnych danych osobowych. Wymagane są mechanizmy maskowania informacji, odpowiednia lokalizacja centrów danych i zgodność z regulacjami. GDPR czy SOC 2 Type 2 nie są dodatkiem – są fundamentem.

Każdy agent ma też przypisanego superwizora. Ten nadzorca prowadzi pełną ścieżkę audytu i pozwala śledzić każdy ruch agenta. Jeśli coś zaczyna odbiegać od normy, system natychmiast wysyła powiadomienie. I na każdym etapie obecny jest człowiek. Najpierw jako przewodnik, potem jako kontroler, ale wciąż w obiegu.

To właśnie te mechanizmy, czyli audyt, guardrails, nadzór, ludzka kontrola, budują zaufanie. I dzieje się to krok po kroku, bez dróg na skróty.

 

Wiele firm wciąż obawia się prawdziwej autonomii agentów AI. Jakie kroki pomagają budować zaufanie i poczucie kontroli?

Punktem wyjścia zawsze jest „human in the loop”. Zaczynasz od wdrożenia, w którym człowiek cały czas widzi pracę agenta, może ją nadzorować i w każdej chwili interweniować. Dzięki temu organizacja czuje, że nie oddaje sterów w ciemno, tylko stopniowo poznaje zachowanie systemu i rozumie, jak agent podejmuje decyzje.

Potrzebne są też „guardrails”, czyli jasne ramy, w których agent może się poruszać. To zestaw ograniczeń, sygnałów ostrzegawczych i punktów kontrolnych, które mówią, że system wykonuje swoje zadania we właściwy sposób lub że coś zaczyna wymykać się z normy. Powiadomienia pozwalają reagować od razu, zanim mały błąd przerodzi się w większy problem.

I jeszcze jedno. Platforma musi mieć pełne ścieżki audytu. Stworzenie agenta jest dziś łatwe. Prawdziwą sztuką jest jego nadzór, testowanie i utrzymanie go w ryzach, szczególnie gdy działa w środowisku produkcyjnym. Dlatego nie chodzi o to, by budować agenta w izolacji, tylko o to, by działał w ramach stabilnej, nadzorowanej architektury. Tak wygląda odpowiedzialne dochodzenie do autonomii. 

 

Jak łączy Pani dynamiczny rozwój AI z odpowiedzialnym wdrażaniem? Szczególnie w kontekście regulacji, takich jak EU AI Act czy amerykańskie ramy governance?

Ogromną rolę odgrywa fakt, że dziś jesteśmy częścią IFS. Startup może poruszać się bardzo szybko, ale nie zawsze ma narzędzia, procesy i struktury, które pozwalają robić to w sposób zgodny z regulacjami na wielu rynkach jednocześnie. Po wejściu do IFS znaleźliśmy się w środowisku, w którym governance jest elementem codziennego funkcjonowania.

Mamy wdrożone wszystkie niezbędne kontrole, pełne struktury operacyjne i jasne procedury, które umożliwiają odpowiedzialne wdrażanie technologii. Standardy, które obowiązują w IFS, gwarantują, że każde nowe rozwiązanie powstaje w bezpiecznym, zgodnym regulacyjnie otoczeniu.

To daje duże poczucie stabilności. Wiemy, że możemy rozwijać platformę w szybkim tempie, nie schodząc z kursu zgodności z regulacjami w Europie, USA i innych regionach. Ta równowaga między innowacją a odpowiedzialnością jest dla mnie kluczowa.

 

Jak w najbliższych latach zmieni się relacja między ludźmi a agentami AI? Czy możemy spodziewać się pełnej autonomii, czy raczej trwałej hybrydy?

Model hybrydowy będzie dominował w przedsiębiorstwach. Są procesy, takie jak obsługa zamówień zakupu, które można w dużej mierze zautomatyzować. Ale zawsze pozostaną obszary, gdzie to człowiek musi podjąć decyzję, coś ocenić albo zrozumieć kontekst, którego agent jeszcze nie potrafi uchwycić. Chodzi więc nie o zastąpienie człowieka, lecz o zmianę jego roli.

Dzisiaj „human in the loop” oznacza głównie prowadzenie agenta, korygowanie go, nadawanie kierunku, zatwierdzanie decyzji. Za kilka lat człowiek będzie pełnił raczej funkcję nadzorcy. Agent zrealizuje proces, a pracownik sprawdzi rezultat, przejrzy wyjątki i oceni, czy wszystko przebiegło zgodnie z oczekiwaniami.

Organizacje będą musiały zarządzać współistnieniem ludzi i agentów. To znaczy monitorować, jak ze sobą współpracują, jak dzielą odpowiedzialności, gdzie występują punkty wspólne, a gdzie konflikty. Hybryda nie jest etapem przejściowym – to model docelowy. Ludzie i agenci będą działać obok siebie, każdy w swojej specjalności. 

 

Jakie przesłanie przekazałaby Pani firmom przygotowującym się do wdrażania platform agentowych?

Najważniejsze jest skupienie się na jasności, a nie na hałasie marketingowym. Wybierając platformę, trzeba patrzeć na jej fundamenty: nadzór, governance, monitorowanie, audytowalność, bezpieczeństwo. To nie są dodatki. To elementy, które decydują o tym, czy autonomia będzie działać odpowiedzialnie.

Agenci nie będą wykonywać pojedynczych zadań, będą realizować pełne procesy od początku do końca. Prawdziwa platforma agentowa łączy różne systemy, różne kompetencje i potrafi je ze sobą spinać. Firmy potrzebują partnera, który rozumie tę architekturę i potrafi ją dostarczyć.

Celem nie jest innowacja dla samej innowacji. Celem jest transformacja operacyjna oparta na zaufaniu, przejrzystości i wymiernych efektach biznesowych. Jeżeli te elementy są na miejscu, skalowanie agentów staje się naturalnym, przewidywalnym etapem rozwoju.