FBI: Sztuczna inteligencja ułatwia hakerom generowanie nowych ataków
W rozmowie z dziennikarzami FBI wydało ostre przypomnienie – i ostrzeżenie – o rozprzestrzenianiu się cyberataków wspomaganych przez programy AI. Według organu rządowego liczba osób, które stały się przestępcami wykorzystującymi technologię sztucznej inteligencji w ramach ataków phishingowych lub tworzenia złośliwego oprogramowania, rośnie w alarmującym tempie – a wpływ ich działań tylko się zwiększa.
Opisywaliśmy doniesienia o tym, jak nawet zablokowane modele sztucznej inteligencji, takie jak ChatGPT, zostały wykorzystane do opracowania złośliwego oprogramowania, które jest w stanie ominąć nawet najnowsze systemy bezpieczeństwa. Polimorficzne złośliwe oprogramowanie, jak wiadomo, jest oprogramowaniem, które kiedyś wymagało wysoko wykwalifikowanego programisty (lub grupy programistów); teraz zostało uproszczone do okna kontekstowego.
„Spodziewamy się, że z biegiem czasu, w miarę przyjmowania i demokratyzacji modeli sztucznej inteligencji, trendy te będą się nasilać” – powiedział wysoki rangą urzędnik FBI.
Niemniej jednak, poza otoczonymi murem modelami ChatGPT firmy Open AI i Claude 2 firmy Anthropic, świat otwartej sztucznej inteligencji jest w centrum zainteresowania organów ścigania. Jest to świat, w którym można pobrać wybrany model bazowy (którego najnowszym przykładem jest open-source’owa Llama 2 firmy Meta) i trenować go na dowolnej dokumentacji – aby dostosować go do konkretnych potrzeb.
Potrzeby te mogą wahać się od samozaprzeczalnie humorystycznego klona ChatGPT, piekielnie zdeterminowanego do dominacji nad światem (jak w przypadku BratGPT), przez DarkWeb i jego subkultury językowe (jak zrobili to badacze z DarkBert) i wreszcie modelach opartych na subskrypcji, takich jak WormGPT.
Dzięki tym narzędziom atakujący może z łatwością zautomatyzować tworzenie całej strony internetowej, łańcucha odpowiedzi e-mail w obie strony i prawie całą pracę związaną z tym procesem. Lub, ponownie, zakodować polimorficzne złośliwe oprogramowanie, które jest biegłe w omijaniu obecnych możliwości cyberbezpieczeństwa – a obrona jest już w niekorzystnej sytuacji. Nie ma potrzeby dodawania sztucznej inteligencji. Być może mądrze, FBI nie określiło, jakie konkretne modele sztucznej inteligencji typu open source są wykorzystywane podczas rozmowy, ale samo uznanie istnienia problemu jest wystarczająco wymowne.
FBI podkreśliło również obawy dotyczące bezpieczeństwa związane z rozprzestrzenianiem się technologii generatywnej sztucznej inteligencji, która może być wykorzystywana w dziedzinie deepfake’ów – treści generowanych przez sztuczną inteligencję, które nigdy nie miały miejsca w rzeczywistości. Trudno przecenić, jak niebezpieczna może stać się głęboko sfałszowana, nieweryfikowalna cyfrowo konferencja prasowa w świecie, w którym żyjemy. Kwestia ta prowadzi bezpośrednio do problemu oddzielenia danych syntetycznych (generowanych lub w inny sposób obsługiwanych przez sieć AI) od danych emergentnych (danych, które naturalnie wyłaniają się z zapisu ludzkiej aktywności).
Wielu gigantów AI, w tym OpenAI, Microsoft, Google i Meta, obiecało niedawno w Białym Domu wprowadzić taką technologię znakowania wodnego, która jest również korzystna dla nich w nieuniknionym wyścigu o obniżenie kosztów szkolenia (którego głównym kandydatem jest tak zwane szkolenie rekurencyjne). Jednak w tym tygodniu OpenAI zamknęło swoje narzędzie AI Classifier, którego celem była właśnie identyfikacja takich syntetycznych danych ze względu na zaledwie 26-procentowy wskaźnik sukcesu.
Rozprzestrzenianie się prywatnej, generatywnej technologii sztucznej inteligencji o otwartym kodzie źródłowym jest pewne. Moment, w którym można było je powstrzymać, minął z chwilą, gdy stały się one open-source; a z czasem lepszy sprzęt i techniki pozwolą każdemu, kto ma prywatny model sztucznej inteligencji, na jego ulepszenie.