Eksperci ostrzegają przed nowym wyścigiem zbrojeń w cyberbezpieczeństwie

Era hakowania z AI? Najwidoczniej to właśnie nas czeka. Już teraz AI bywa wykorzystywane w obszarze bezpieczeństwa cyfrowego – niestety nie tylko jako forma ochrony, ale także broń stosowana przez hakerów
Coraz więcej dowodów wskazuje na to, że sztuczna inteligencja stała się narzędziem zarówno w rękach obrońców systemów, jak i cyberprzestępców. Według doniesień NBC, branża bezpieczeństwa cyfrowego wchodzi w nową fazę, w której AI zaczyna odgrywać kluczową rolę w walce pomiędzy hakerami a specjalistami od ochrony danych.
Z generatywnej AI korzystają dziś cyberprzestępcy, grupy szpiegowskie, badacze i korporacyjne zespoły bezpieczeństwa. Modele językowe, mimo że wciąż popełniają błędy, okazują się niezwykle skuteczne w konwertowaniu poleceń tekstowych na kod czy analizie dokumentów. Z AI korzysta m.in. Google do wyszukiwania podatności, CrowdStrike do wspierania osób podejrzewających włamanie, a startup Xbow – którego system w czerwcu wspiął się na szczyt rankingu HackerOne w USA.
Nie brakuje jednak zagrożeń. Według CrowdStrike północnokoreańscy operatorzy zaczęli używać AI do tworzenia fałszywych CV i profili społecznościowych, by zdobywać pracę w zachodnich firmach technologicznych. Zatrudnieni w ten sposób agenci wykorzystują później AI do komunikacji, pisania kodu i podtrzymywania pozorów, jednocześnie prowadząc działania szpiegowskie.
Eksperci podkreślają jednak, że obecnie AI działa raczej jako wzmacniacz możliwości, a nie w pełni autonomiczne narzędzie hakerskie. To jednak, w dalszej perspektywie, będzie się zmieniało.
– Nie widziałam jeszcze, by AI odkryła coś naprawdę nowego. Wykonuje raczej to, co już umiemy robić – stwierdziła Heather Adkins, wiceprezes ds. inżynierii bezpieczeństwa w Google w NBC
Nie brakuje też sceptycyzmu wobec jakości generowanych przez AI wyników. Daniel Stenberg, główny twórca projektu curl, wielokrotnie zwracał uwagę, że sztuczna inteligencja produkuje mnóstwo fałszywych zgłoszeń o lukach bezpieczeństwa, co zabiera czas badaczom. Stenberg alarmuje, że 2025 rok przyniósł prawdziwą falę „AI slop” – fałszywych zgłoszeń generowanych przez sztuczną inteligencję. Według jego danych, około 20% wszystkich raportów o podatnościach pochodzi od AI, a zaledwie 5% zgłoszeń okazało się realnymi lukami bezpieczeństwa. To znaczący spadek skuteczności względem poprzednich lat.
Stenberg nie tylko poświęca czas na analizowanie błędnych zgłoszeń, ale też publicznie nagłaśnia problem, wskazując, że wielu innych twórców oprogramowania open source może być przytłoczonych podobną falą bezwartościowych raportów, choć nie mają takiej widoczności jak on.
Jednocześnie przykłady wykorzystania AI w cyberprzestrzeni są coraz bardziej różnorodne:
Północnokoreańscy agenci używają AI do podszywania się pod pracowników firm technologicznych.
Google przyspiesza wykrywanie podatności z pomocą narzędzi AI.
Startup Xbow wykorzystał AI, aby wspiąć się na szczyt rankingu HackerOne.
Rosyjscy hakerzy wplatają AI w złośliwe oprogramowanie atakujące Ukrainę, które automatycznie wyszukuje poufne pliki na komputerach ofiar.
Mimo to AI wciąż rzadko odkrywa nowe luki samodzielnie, a jej efekty bywają chaotyczne lub wręcz mylące. W skrajnych przypadkach – jak zauważają eksperci – AI mogłaby nawet „wymyślać” kompromitujące informacje, jeśli zostałaby poproszona o podsumowanie przejętych danych.
Pytanie więc pozostaje otwarte: czy rzeczywiście weszliśmy w erę hakowania wspieranego przez AI, czy raczej mamy do czynienia z kolejnym produktem globalnej gorączki inwestycyjnej i geopolitycznej rywalizacji o „technologię przyszłości”? Choć wielu ekspertów uważa, że prawdziwa „era AI w hakowaniu” jeszcze nie nadeszła, jedno wydaje się pewne – AI stała się już istotnym elementem cyfrowego pola walki.






















