Amerykańskie szefostwo ds. cyberbezpieczeństwa ostrzega, że sztuczna inteligencja pomoże oszustom szybciej rozwijać szkodliwe oprogramowanie
Boty takie jak ChatGPT być może nie będą w stanie dokonać kolejnego wielkiego ataku na serwer Microsoftu lub superinfekcji ransomware Colonial Pipeline, ale mogą pomóc gangom przestępczym i hakerom z państw związkowych w opracowaniu niektórych ataków na IT, według Roba Joyce’a, dyrektora Dyrekcji Bezpieczeństwa Cybernetycznego NSA.
Joyce, przemawiając we wtorek na CrowdStrike’s Government Summit, powiedział, że nie spodziewa się zobaczyć – przynajmniej nie „w najbliższym czasie” – AI wykorzystywanej „do zautomatyzowanych ataków, które będą rozrywać systemy z prędkością, która jest dziś niewyobrażalna.”
Uczenie maszynowe i jego potomstwo chatbot to „narzędzia, które będą płynąć i zwiększać tempo zagrożenia” – twierdził Joyce. „To nie będzie samo generować zagrożenia”.
Przestępcy mogą wykorzystywać oprogramowanie ML do opracowywania bardziej autentycznie wyglądających przynęt phishingowych i lepszych notatek o okupie, jednocześnie skanując większe ilości danych w poszukiwaniu wrażliwych informacji, które mogą spieniężyć. Narzędzia te mogą być przydatne podczas opracowywania niektórych etapów cyberataku; generowania kodu dla złośliwego oprogramowania, wysyłania wiadomości, zbierania informacji o celu itd.
AI daje obrońcom sieci te same możliwości, dodał Joyce. „Więc przez następny rok będziemy bardzo skupieni: jakie narzędzia pojawią się, które … dadzą nam przewagę jako obrońcom”.
Wystąpienie Joyce’a było odzwierciedleniem wcześniejszych komentarzy starszego dyrektora Mandiant Labs, Roberta Wallace’a, przemawiającego podczas panelu dyskusyjnego na temat przeciwników na konferencji.
„AI to bardzo potężne narzędzie, którego używają przeciwnicy” – powiedział Wallace.
W ciągu ostatnich kilku miesięcy Mandiant udokumentowało to wykorzystanie, które obejmuje rosyjskich i chińskich cyberszpiegów używających AI do skanowania internetu w poszukiwaniu możliwych do wykorzystania luk. Te dwa autorytarne narody wykorzystują również automatyzację do rozsiewania dezinformacji po kanałach mediów społecznościowych.
„Co ważne, to aby pamiętać: że to wciąż przeciwnik na drugim końcu” – dodał Wallace. „Pod koniec dnia to prawdziwa inteligencja może przeważyć nad sztuczną inteligencją – przynajmniej gdy próbujesz powstrzymać przeciwników w tym, co robią”.