Rośnie liczba cyberataków wykorzystujących generatywną sztuczną inteligencję
Cyberataki wykorzystujące generatywną sztuczną inteligencję lub wymierzone w słabe punkty nowej technologii są coraz częstsze – poinformowała we wtorek SK Shieldus, wiodąca koreańska firma świadcząca usługi bezpieczeństwa.
Podczas seminarium medialnego SK Shieldus i EQST, należąca do firmy grupa hakerów w białych kapeluszach, przedstawili swoje ustalenia dotyczące rosnących trendów w zakresie hakowania z wykorzystaniem sztucznej inteligencji i podkreślili znaczenie podnoszenia świadomości oraz podejmowania środków zapobiegawczych w celu ograniczenia szkód.
Według Lee, deepfake phishing i kradzież wirtualnych aktywów były gorącymi tematami w globalnym sektorze bezpieczeństwa w pierwszej połowie roku.
Według statystyk SK Shieldus, w Korei większość przypadków cyberprzestępstw miała miejsce w branży finansowej, zajmując 20,6% wszystkich przypadków w pierwszej połowie tego roku. Na kolejnych miejscach uplasowały się branża informatyczna i komunikacyjna (18 proc.) oraz sektor produkcyjny (16,4 proc.).
W ujęciu globalnym, najwięcej przypadków cyberataków odnotowano w sektorze publicznym i administracyjnym (26,7 proc.), podczas gdy w sektorze informatycznym i komunikacyjnym (22,4 proc.).
Jeśli chodzi o oszustwa związane ze sztuczną inteligencją i przypadki hakowania przy użyciu generatywnej sztucznej inteligencji i chatbotów, EQST wybrało trzy krytyczne luki w zabezpieczeniach, które często pojawiają się wśród 10 najlepszych wskazanych przez OWASP, organizację charytatywną non-profit.
– Chatboty wykorzystujące generatywną sztuczną inteligencję mogą być wykorzystywane do tworzenia złośliwego oprogramowania lub uzyskiwania dostępu do ujawnionych informacji, takich jak metody produkcji leków lub dane osobowe – wyjaśnił Lee.
Prompt injection, jedna z trzech metod, ma miejsce, gdy atakujący manipuluje dużym modelem językowym poprzez spreparowane dane wejściowe, powodując, że LLM nieświadomie wykonuje intencje atakującego. Innymi słowy, atakujący może nadal zadawać pytania, aby uzyskać odpowiedzi od chatbotów, do których początkowo nie miał dostępu.
Niezabezpieczona obsługa danych wyjściowych odnosi się również do niewystarczającej walidacji i obsługi danych wyjściowych generowanych przez LLM, zanim zostaną one przekazane do innych komponentów i systemów – oferując użytkownikom pośredni dostęp do dodatkowych, niezamierzonych funkcji.
Poważnym problemem jest również ujawnianie wrażliwych informacji, w tym zastrzeżonych algorytmów lub innych poufnych szczegółów, które są ujawniane przez generatywną sztuczną inteligencję.
– Obecnie firmy opracowują i wdrażają małe modele językowe dostosowane do ich własnych potrzeb, aby trenować tylko informacje niezbędne do ich pracy – powiedział Lee Ho-seok, szef zespołu EQST Lab.
Aby zapobiec takim atakom, Lee zasugerował firmom przyjęcie szybkich rozwiązań w zakresie bezpieczeństwa i filtrowania danych.