80% danych w bankach leży odłogiem. Generatywna AI ma to zmienić w 2026 roku

Według ekspertów SAS, rok 2026 stanowi punkt zwrotny dla sektora bankowego, w którym “Agentic AI” – półautonomiczne systemy zdolne do samodzielnego działania – wychodzą z fazy eksperymentalnej do pełnego wdrożenia produkcyjnego. Zmiana ta wymusza na instytucjach finansowych nie tylko nowe podejście do monetyzacji danych nieustrukturyzowanych, ale także wdrożenie zaawansowanych mechanizmów bezpieczeństwa, takich jak “tokeny agentowe”, niezbędnych w erze handlu realizowanego przez maszyny.
Obecny rok ma być momentem, w którym bankowość ostatecznie porzuca strategię mnożenia programów pilotażowych (Proof of Concept) na rzecz skalowalnych wdrożeń mających realny wpływ na wynik finansowy. Miłosz Trawczyński z SAS Polska wskazuje, że nowoczesne operacje będą oparte na inteligentnych agentach, przejmujących codzienne zadania operacyjne i decyzyjne. Skala tego zjawiska znajduje odzwierciedlenie w prognozach IDC, które szacuje, że do 2028 roku sektor finansowy przeznaczy na sztuczną inteligencję ponad 67 miliardów dolarów, koncentrując się głównie na automatyzacji i systemach decyzyjnych.
Kluczowym obszarem eksploatacji dla nowej generacji AI stają się dane nieustrukturyzowane – dokumenty, maile czy nagrania – które stanowią ponad 80% zasobów informacyjnych firm, a ich wolumen rośnie w tempie 50-60% rocznie. Wykorzystanie technologii RAG (Retrieval Augmented Generation) pozwala “agentom wiedzy” przetwarzać te zasoby na konkretne rekomendacje biznesowe, co do tej pory było niemożliwe przy użyciu tradycyjnej statystyki. Jednak wraz z rozwojem tzw. agentic commerce (handlu autonomicznego), pojawia się nowe ryzyko: spory transakcyjne dotyczące zakupów dokonanych przez boty bez bezpośredniej wiedzy klienta.
Dla działów cyberbezpieczeństwa oznacza to konieczność wdrożenia nowej warstwy zabezpieczeń. Marta Prus-Wójciuk, Head of Fraud Practice w SAS Central Europe, ostrzega, że banki będą musiały weryfikować tożsamość nie tylko ludzi, ale i działających w ich imieniu algorytmów, stosując sygnatury behawioralne i dynamiczną ocenę ryzyka. W tym scenariuszu rola człowieka ewoluuje z wykonawcy zadań w stronę nadzorcy i “strażnika sensu”, odpowiedzialnego za etykę oraz definiowanie granic autonomii dla systemów AI, które – mimo zaawansowania – nie ponoszą odpowiedzialności prawnej za swoje działania.





















