Wielka Brytania: czy chatboty AI mogą wiązać się z zagrożeniami cybernetycznymi?

Brytyjscy urzędnicy ostrzegają organizacje przed włączaniem chatbotów opartych na sztucznej inteligencji do swoich firm, twierdząc, że badania coraz częściej pokazują, że można je oszukać i żyć, by zaszkodzić.

Jak podaje Reuters, w dwóch postach na blogu, które mają zostać opublikowane w środę, brytyjskie Narodowe Centrum Bezpieczeństwa Cybernetycznego (NCSC) stwierdziło, że eksperci nie uporali się jeszcze z potencjalnymi problemami bezpieczeństwa związanymi z algorytmami, które mogą generować interakcje brzmiące jak ludzkie – nazywane modelami dużych języków lub LLM.

władze na całym świecie zmagają się z rozwojem LLM, takich jak ChatGPT OpenAI, które firmy włączają do szerokiego zakresu usług, w tym sprzedaży i obsługi klienta. Konsekwencje sztucznej inteligencji dla bezpieczeństwa również są nadal przedmiotem zainteresowania, a władze w USA i Kanadzie twierdzą, że widziały, jak hakerzy wykorzystują tę technologię.

Narzędzia oparte na sztucznej inteligencji są już wykorzystywane jako chatboty, które według niektórych wypierają nie tylko wyszukiwania w Internecie, ale także pracę z obsługą klienta i rozmowy sprzedażowe. NCSC stwierdziło, że może to wiązać się z ryzykiem, szczególnie jeśli takie modele zostaną podłączone do procesów biznesowych innych elementów organizacji.

„Organizacje tworzące usługi korzystające z rozwiązań LLM muszą zachować ostrożność, tak samo jak zachowywałyby się, gdyby korzystały z produktów lub bibliotek kodów znajdujących się w wersji beta” – stwierdziła NCSC w jednym ze swoich wpisów na blogu, odnosząc się do eksperymentalnych wersji oprogramowania. „Mogą nie pozwolić, aby ten produkt był zaangażowany w dokonywanie transakcji w imieniu klienta i, miejmy nadzieję, nie obdarzyliby go pełnym zaufaniem. Podobna ostrożność powinna dotyczyć firm LLM”.

Naukowcy i badacze wielokrotnie znajdowali sposoby na oszukanie chatbotów, wydając im nieuczciwe polecenia lub oszukując ich, aby ominęli własne wbudowane bariery ochronne. Na przykład chatbot oparty na sztucznej inteligencji wdrożony przez bank może zostać oszukany w celu dokonania nieautoryzowanej transakcji, jeśli haker odpowiednio sformułuje zapytanie.