Nowe możliwości ochrony przed cyberzagrożeniami: ostatnie badania pokazują, jak sztuczna inteligencja może przyspieszyć analizę zagrożeń i je niwelować

W dniu otwarcia przez Google nowego centrum cyberbezpieczeństwa w Europie, platforma wymiany informacji o cyberzagrożeniach VirusTotal opublikowała wyniki badań, które pokazują, jak w rozwiązaniach z zakresu cyberbezpieczeństwa można wykorzystać AI do ulepszenia analizy złośliwego oprogramowania.

Raport „Empowering Defenders: How AI is shaping malware analysis” powstał w wyniku przeprowadzonych w okresie 6 miesięcy analiz setek tysięcy próbek złośliwego oprogramowania w ramach inicjatywy Crowdsourced AI. Okazało się, że sztuczna inteligencja niezwykle skutecznie analizuje złośliwy kod, ponieważ rozpoznaje 70% więcej złośliwych skryptów niż tradycyjne techniki i jest od nich nawet do 300% dokładniejsza, jeśli chodzi o wykrywanie prób atakowania urządzeń z powszechnymi lukami w zabezpieczeniach przy użyciu złośliwych skryptów lub exploitów.

Cyberbezpieczeństwo to kwestia spędzająca sen z powiek mieszkańców Europy oraz tutejszych firm i instytucji państwowych. Złośliwe oprogramowanie wymieniane jest jako jedno z największych zagrożeń w UE. Co więcej, w Europie brakuje ekspertów ds. cyberbezpieczeństwa, więc analiza złośliwego oprogramowania jest jedną z najbardziej pożądanych umiejętności wymagających wiedzy technicznej. Opublikowane dziś wyniki badań pokazują, w jaki sposób sztuczna inteligencja może przyspieszyć analizę złośliwego oprogramowania, zwiększyć jej dokładność oraz ułatwić przeprowadzanie tego procesu osobom, które nie mają specjalistycznej wiedzy bądź doświadczenia, a w konsekwencji zwiększyć bezpieczeństwo europejskich organizacji.

Raport VirusTotal stanowi uzupełnienie opublikowanej w zeszłym miesiącu przez zespół ekspertów i ekspertek Google Cloud prognozy dotyczącej cyberbezpieczeństwa na rok 2024, w której możemy przeczytać, że w ramach ochrony przed zagrożeniami w sieci będziemy korzystać z technologii generatywnej AI w celu poprawy wykrywania i identyfikowania zagrożeń oraz reagowania na nie, a także w celu przyspieszenia analizy złośliwego oprogramowania oraz innych czasochłonnych zadań, takich jak analiza wsteczna. Specjaliści i specjalistki ds. bezpieczeństwa z Google Cloud przewidują, że sztuczna inteligencja będzie pomagać w analizie i kontekstualizacji dużych ilości danych.

Dzięki udostępnieniu w pierwszej połowie tego roku funkcji Code Insight osoby przeprowadzające badanie z firmy VirusTotal odkryły, że sztuczna inteligencja może przyspieszyć niegdyś wykonywany ręcznie proces analizowania złożonych skryptów w celu wykrycia złośliwego kodu, ale także wyjaśnić analitykom prostym językiem, czy kod jest złośliwy i do czego jest przeznaczony. Funkcja ta dodatkowo zwiększa skuteczność istniejących narzędzi używanych do zapewniania cyberbezpieczeństwa, ponieważ dostarcza bardziej szczegółowych informacji na temat analizowanego kodu (jego przeznaczenia i sposobu działania) oraz znacznie rozszerza możliwości tych narzędzi związane z niwelowaniem potencjalnych zagrożeń.

 

„Technologia może tworzyć nowe zagrożenia, ale może też pomóc nam z nimi walczyć. Możliwości AI w zakresie analizowania i wyjaśniania złośliwych skryptów będą mieć ogromne znaczenie dla cyberbezpieczeństwa, ponieważ osoby, które nie mają specjalistycznej wiedzy, będą mogły wykrywać ataki złośliwego oprogramowania i im zapobiegać. Badaczom i osobom czuwającym nad cyberbezpieczeństwem AI pozwoli zaoszczędzić ogromną ilość czasu i umożliwi obronę przed różnego rodzaju atakami i narzędziami stosowanymi przez osoby przeprowadzające ataki” – mówi Vicente Diaz, strateg ds. analizy zagrożeń w zespole VirusTotal.

 

W swojej prognozie dotyczącej cyberbezpieczeństwa na rok 2024 eksperci i ekspertki Google Cloud przewidują, że generatywna AI i duże modele językowe mogą być wykorzystywane do ataków phishingowych, ataków przy użyciu SMS-ów, a także w ramach innych działań z zakresu inżynierii społecznej, aby treści wyglądały na bardziej wiarygodne. Badania przeprowadzone przez VirusTotal wykazały, że osoby przeprowadzające ataki w sieci coraz częściej tworzą złośliwe oprogramowanie podszywające się pod rozwiązania oparte na sztucznej inteligencji, w których wykorzystują tekst i obrazy generowane przez AI, aby wzbudzać większe zaufanie użytkowników. Na przykład udostępniają strony internetowe, na których używają ikon znanych rozwiązań opartych na AI, co ma zwiększyć ich wiarygodność. W efekcie oszukany użytkownik pobiera złośliwe oprogramowanie lub pada ofiarą kradzieży danych.

 

„Nieustannie pracujemy nad stworzeniem bezpieczniejszego i bardziej godnego zaufania internetu. Podstawową rolą naszego właśnie uruchomionego Inżynierskiego Centrum Bezpieczeństwa w Maladze będzie udostępnianie informacji o zagrożeniach i analizowanie nowych zagrożeń bezpieczeństwa, tak jak zostało to zrobione w raporcie. Choć niepokojące jest to, że oprogramowanie typu adware podszywa się pod rozwiązania online oparte na AI, jednocześnie sztuczna inteligencja może pomóc w wykrywaniu powszechnych luk w zabezpieczeniach i exploitów, a także w ochronie przed ich wykorzystywaniem, z nawet 300% większą dokładnością. Co ważne, w miarę trenowania sztuczna inteligencja będzie coraz lepiej radzić sobie z wykrywaniem zagrożeń i zapobieganiem im, więc najlepsze jeszcze przed nami” – mówi Phil Venables, główny specjalista ds. bezpieczeństwa informacji w Google Cloud.

 

IT RESELLER nr 354/2023 „W dobie AI edukacja zyska jeszcze więcej” – podkreśla w wywiadzie okładkowym Jordan Chrysafidis, General Manager, WW Education Device Sales, Microsoft