Sztuczna inteligencja może stać się narzędziem cyberprzestępców w ciągu najbliższych pięciu lat, wynika z raportu WithSecure oraz fińskich agencji rządowych
W ciągu najbliższych pięciu lat cyberprzestępcy prawdopodobnie opracują mechanizmy sztucznej inteligencji zdolne do wyszukiwania luk w zabezpieczeniach i przeprowadzania ataków – wynika z raportu opracowanego przez WithSecure (dawniej F-Secure Business), Fińską Agencję Transportu i Komunikacji (Traficom) i Fińską Narodową Agencję Zaopatrzenia Kryzysowego (NESA). Obecnie cyberataki wykorzystujące SI są rzadkie, jednak konieczne jest wdrożenie innowacyjnych rozwiązań w dziedzinie bezpieczeństwa sztucznej inteligencji już teraz.
SI stosująca socjotechniki
Cyberprzestępcy korzystają obecnie ze sztucznej inteligencji głównie w atakach socjotechnicznych, takich jak podszywanie się pod określone osoby lub organizacje. SI używana jest przez hakerów również do analizy danych. Nie są to jednak działania, które analitycy mogą bezpośrednio obserwować. Zaawansowane cyberataki bazujące na SI zdarzają się obecnie bardzo rzadko, jednak szybki rozwój tej technologii sprawia, że w niedalekiej przyszłości można spodziewać się wzrostu liczby zagrożeń wykorzystujących sztuczną inteligencję.
Od APT do małych grup hakerskich
Według raportu WithSecure, w ciągu najbliższych pięciu lat przestępcy opracują SI zdolną do samodzielnego wyszukiwania luk w zabezpieczeniach, planowania i przeprowadzania ataków, unikania wykrycia przez rozwiązania ochronne oraz pozyskiwania danych z zaatakowanych systemów lub otwartych źródeł informacji.
– Treści generowane przez SI są wykorzystywane w socjotechnikach, jednak działania sztucznej inteligencji zaprojektowanej do sterowania całymi kampaniami, wykonywania poszczególnych etapów ataku lub kontrolowania działania złośliwego oprogramowania wciąż nie zostały zaobserwowane. Prawdopodobnie najszybciej takie techniki opracują dobrze zaopatrzone, wysoko wykwalifikowane grupy takie jak APT, wspierane przez państwa narodowe – wskazuje Andy Patel, analityk WithSecure Intelligence – Jeżeli mechanizmy sztucznej inteligencji zostaną opracowane przez wykwalifikowane grupy hakerskie, niektóre z narzędzi prawdopodobnie zostaną przekazane również mniejszym aktorom i szybko staną się powszechnie stosowane.
Potrzebny nowy rodzaj zabezpieczeń
Dostępne obecnie na rynku rozwiązania ochronne odpowiadają tylko na niektóre z wyzwań związanych z wykorzystywaniem sztucznej inteligencji przez hakerów. Aby przeciwdziałać zagrożeniom takim jak np. bazujący na SI phishing, wykorzystujący syntetyzowane treści czy podszywanie się pod biometryczne systemy uwierzytelniania, potrzebne są nowe technologie.
– Ewolucja technologii związanych z bezpieczeństwem nie nadąża za rozwojem niektórych aplikacji wykorzystujących sztuczną inteligencję. Może to doprowadzić do uzyskania przewagi przez cyberprzestępców – podkreśla Samuel Marchal, Senior Data Scientist w WithSecure. – Trzeba pamiętać, że hakerzy, w przeciwieństwie do legalnych organizacji, deweloperów i badaczy, nie przestrzegają przepisów dotyczących prywatności danych i lokalnego prawa. Jeśli decydenci oczekują rozwoju bezpiecznych, niezawodnych i etycznych technologii bazujących na sztucznej inteligencji, będą musieli zastanowić się, jak zapewnić ich bezpieczeństwo.
W raporcie podkreślono również rolę, jaką odgrywają rozwiązania nietechniczne. Wymiana informacji między podmiotami działającymi na rzecz cyberbezpieczeństwa i szkolenia w zakresie obrony przed zagrożeniami są niezbędnym elementem zarządzania ryzykiem, jakim są ataki sterowane za pomocą SI.