F5 Labs ostrzega przed nową erą cyberzagrożeń. „Zombie Agent” atakuje systemy AI

Najnowsza analiza F5 Labs ujawnia niebezpieczną dysproporcję: podczas gdy modele sztucznej inteligencji stają się coraz inteligentniejsze, to ich systemy obronne nie nadążają jednak za tempem innowacji. Eksperci zidentyfikowali nowy, budzący niepokój scenariusz ataku – „Zombie Agent” – w którym hakerzy mogą „zainfekować” pamięć AI ukrytymi instrukcjami, czekającymi na odpowiedni moment do aktywacji.

 

Z danych zebranych w ramach indeksów Comprehensive AI Security Index (CASI) oraz Agentic Resistance Score (ARS) wynika, że liderzy wydajności nie zawsze są liderami bezpieczeństwa. Przykładem jest model GLM-4.7 od Z.ai, który mimo zajęcia drugiego miejsca pod względem możliwości (tuż za Claude Opus), uzyskał zaledwie 43,8 pkt na 100 w rankingu bezpieczeństwa. Nowością w zestawieniu jest Gemini Flash 3 z wynikiem 52 pkt CASI, co potwierdza tezę badaczy: organizacje muszą zacząć oceniać AI dwuwymiarowo – nie tylko przez pryzmat tego, co model potrafi zrobić, ale jak bardzo jest odporny na manipulację.

 

Zombie Agent: Cichy pasażer w pamięci AI

Najbardziej medialnym, a zarazem najgroźniejszym zjawiskiem opisanym przez F5 Labs, jest tzw. Zombie Agent. Scenariusz ten przypomina cyfrowe „pranie mózgu”. Wykorzystując podatności w systemach agentowej AI, napastnik może podczas jednej, pozornie niewinnej interakcji, zapisać w pamięci długotrwałej agenta ukryte instrukcje.

Zainfekowany w ten sposób „agent-zombie” może przez długi czas funkcjonować normalnie, by w określonych warunkach (np. po otrzymaniu konkretnego słowa kluczowego lub po upływie czasu) wykonać złośliwe polecenie – np. wykraść dane firmowe, zmanipulować przelew lub otworzyć furtkę do wewnętrznej sieci organizacji.

 

Shadow AI i infrastrukturalny chaos

Eksperci F5 Labs zwracają również uwagę na problem Shadow AI infrastructure. Firmy masowo wdrażają narzędzia AI bez odpowiedniego nadzoru działów IT i bezpieczeństwa. Powoduje to powstawanie „szarej strefy” systemów, które przetwarzają wrażliwe dane, nie będąc objętymi firmowymi politykami ochrony.

Dodatkowym zagrożeniem są nowe techniki manipulowania modelami językowymi, które pozwalają omijać standardowe filtry bezpieczeństwa (tzw. jailbreaking). Ataki stają się coraz bardziej subtelne – zamiast bezpośrednich komend, hakerzy stosują techniki perswazji i wieloetapowego wprowadzania modelu w błąd, co w połączeniu z autonomicznym działaniem agentów AI może prowadzić do niekontrolowanych skutków w świecie rzeczywistym.