Google Cloud: w 2026 roku AI będzie zarządzać operacjami cyberprzestępczymi

Google Cloud opublikował raport “Cybersecurity Forecast 2026”, w którym alarmuje, że sztuczna inteligencja stanie się standardowym narzędziem cyberprzestępców do automatyzacji i skalowania ataków. Eksperci przewidują, że atakujący wykorzystają AI w całym cyklu życia kampanii hakerskich, od rozpoznania po ekstrakcję danych, zwiększając prędkość i skuteczność operacji do bezprecedensowego poziomu. Raport wskazuje na prompt injection, generowany przez AI phishing oraz klonowanie głosów jako najgroźniejsze zagrożenia nadchodzącego roku.​

Cyberprzestępcy przestali testować sztuczną inteligencję – teraz w pełni ją wykorzystują do wzmacniania szybkości, zakresu i skuteczności swoich działań. Google przewiduje znaczący wzrost ataków na korporacyjne systemy AI poprzez prompt injection, technikę manipulującą modelami językowymi do wykonywania ukrytych poleceń i omijania zabezpieczeń. Te ataki mogą prowadzić do wycieku wrażliwych danych, modyfikacji ustawień systemowych, generowania fałszywych zatwierdzeń czy omijania procedur compliance.

Inżynieria społeczna wspierana przez AI osiągnie nowy poziom zaawansowania – grupy przestępcze jak ShinyHunters już wykorzystują generowane głosy do realistycznego podszywania się pod dyrektorów czy pracowników IT podczas ataków typu vishing. Technologia klonowania głosu stała się tania i wystarczająco przekonująca, by okłamać nawet wyszkolonych pracowników. Wielomodalne narzędzia AI potrafią manipulować głosem, tekstem i wideo, napędzając nową falę business email compromise (BEC) i hiperrealistycznych kampanii phishingowych.

Raport przewiduje także masowe wdrożenia agentów AI, które autonomicznie wykonują zadania i podejmują decyzje w imieniu użytkowników. Problem polega na tym, że tradycyjne modele zarządzania tożsamością i dostępem przestają już wystarczać – agenci AI będą wymagać odrębnych tożsamości cyfrowych i ścisłych kontroli dostępu opartych na czasowych uprawnieniach do zadań. Google ostrzega również przed “shadow AI agents” – nieautoryzowanymi narzędziami AI używanymi przez pracowników bez wiedzy działów IT, które stwarzają ogromne ryzyko wycieku danych. Warto więc wejść w nadchodzący rok ze świadomością tych właśnie zagrożeń.