Ponad połowa firm uważa, że obawa o bezpieczeństwo hamuje adaptację technologii ML czy AI, wynika z VMware Global Security Insights.

Ponad połowa firm (56%) uważa, że obawa o bezpieczeństwo hamuje adaptację technologii ML/AI — donosi VMware Global Security Insights. W rzeczywistości te technologie mogą rozwiązać problem bezpieczeństwa, jeśli tylko będziemy gotowi zaakceptować je jako czynniki wspomagające, a nie sceptycznie od nich stronić.

 

„Ostra krawędź” AI

Wykorzystanie tych technologii wciąż raczkuje i nieustannie pojawiają się pytania dotyczące ich przyszłości — według wielu raportów ich zagospodarowanie w przedsiębiorstwach oscyluje dziś wokół 10%. Potencjał jest ogromny — badania McKinsey szacują, że do 2030 r. AI może zasilić światową gospodarkę dodatkowymi 13 bilionów dolarów rocznie. Na co dzień większość z nas ma do czynienia z ML, ale jej nie dostrzega — przykładem są targetowane reklamy na Facebooku. Ponadto uczenie maszynowe i sztuczna inteligencja są wykorzystywane w łańcuchach dostaw, do poprawy relacji z klientami i w diagnostyce medycznej. Jest to jedna z najmocniej rozwijanych obecnie technologii do celów biznesowych, służąca przede wszystkim szybkiemu przetwarzaniu dużych ilości danych, „ucząca się” z czasem i tym lepsza, im częściej to robi.

 

Człowiek kontra komputer

Systemy AI potrafią obecnie komponować tekst, dźwięk i obrazy na tyle, że ludzie mają trudności z odróżnieniem ich od wytworu ludzkiego. AI może być wykorzystane zarówno do celów społecznie użytecznych, jak i szkodliwych.

 

W kwestii bezpieczeństwa jest to jednak zupełnie inna historia — panuje przekonanie, że aplikacje oparte na AI/ML stanowią otwartą furtkę dla potencjalnych napastników. To prawda, że im więcej rozwiązań i technologii, tym ryzyko, że coś “pójdzie nie tak” staje się większe — w rzeczywistości jesteśmy tak silni, jak ostatnio odparty rodzaj ataku. Pamiętajmy jednak, że celem cyberprzestępcy jest zazwyczaj szukanie nowych „ślepych punktów”, czyli miejsc, w których może się ukryć i uzyskać dostęp do danych, a które nie są jeszcze znane. Im dłużej pozostaje niezauważony, tym ma więcej czasu na przygotowania, co pozwala mu na atak w idealnym dla siebie momencie. Sztuczna inteligencja może zapobiec takim zagrożeniom – komentuje Stanisław Bochnak, Senior Business Solutions Strategist w VMware Polska.

 

Taka właśnie sytuacja powinna skłaniać do stosowania większej liczby aplikacji zabezpieczających opartych na AI/ML, dzięki którym można dokonać analizy „normalnych” zachowań w infrastrukturze, nauczyć AI/ML jak wygląda bezpieczny stan i dzięki temu wyłapywać anomalie sugerujące anomalie. Co więc powstrzymuje firmy?

 

Skrępowani niestabilnością

Dobra wiadomość jest taka, że firmy nie chowają głowy w piasek. Wiedzą, że bezpieczeństwo IT nie spełnia dzisiejszych wymogów i wymaga gruntownej naprawy. Problemem jest złożoność zastosowanych obecnie rozwiązań — zgodnie z wynikami Global Security Insights, ponad połowa firm (57%) uważa, że rynek systemów bezpieczeństwa jest na tyle skomplikowany, że trudno wprowadzić zmiany w polityce zabezpieczeń. Innymi słowy, „paraliż od analiz” – wielkie firmy dotarły do etapu, w którym zastosowane rozwiązania bezpieczeństwa są tak skomasowane, że nie wiadomo, gdzie zacząć ich usprawnianie. Powstawały one na przestrzeni lat, były przebudowywane, naprawiane, aktualizowane i łatane do tego stopnia, że stały się swoją karykaturą.

 

Niektóre systemy bezpieczeństwa przypominają bolid F1, którego silnik trzyma na swoim miejscu tylko klej, sznurek i modlitwa. Oto powód, dla którego bezpieczeństwo musi być nieodłączne — zintegrowane, a nie “doczepiane” w różnych miejscach. Mając solidne zaplecze, firmy mogą wprowadzać innowacje i badać nowe technologie, takie jak ML i AI, bez obaw i ryzyka. Niemniej dzisiejsze systemy bezpieczeństwa są tak kruche, że organizacje nie mają odwagi wprowadzać większych, odważnych zmian. Ogranicza je własna sztywna i krucha stabilność — dodaje Stanisław Bochnak, Senior Business Solutions Strategist w VMware Polska.

 

Koszmar nowoczesnego bezpieczeństwa

Jeśli chodzi o szanse na uporządkowanie ogromnego bałaganu współczesnego bezpieczeństwa, machine learning i artificial intelligence są niczym rycerze w lśniących zbrojach. Sytuacja wymaga działania, a nie bezczynności i nigdy nie było bardziej logicznego argumentu za prostotą niż dzisiaj. Ze względu na swój charakter, obie technologie pomogą skupić się na detalach i zrozumieć najdrobniejsze szczegóły. Im większe i bardziej złożone przestrzenie, tym lepiej. W rezultacie, jeśli chodzi o modelowanie zagrożeń, reagowanie i przewidywanie, wykorzystanie aplikacji bezpieczeństwa opartych na ML/AI przynosi ogromne korzyści. Nie jest więc zaskoczeniem, że – jak wynika z raportu VMware Global Security Insights – 62% firm chciałoby używać więcej aplikacji ML /AI do poprawy bezpieczeństwa i usług. Jednak realizacja tej koncepcji zależy od tego, czy pracownicy poczują się pewnie z decyzjami podejmowanymi przez algorytmy — tu potrzebne będzie niezachwiane zaufanie do technologii.

 

Wyjaśnialność? Wyjaśnij, proszę

Niepokój wokół uczenia maszynowego i sztucznej inteligencji nie jest bezpodstawny — AI ze swej natury jest autonomiczna, oznacza to również oddanie pewnego stopnia kontroli. Aby firmy mogły pozwolić czemuś niekontrolowanemu działać i stać na straży bezpieczeństwa, potrzeba czegoś więcej niż tylko “ślepej wiary”. Powinno się tu mówić o „wyjaśnialności”, czyli możliwości wytłumaczenia i uzasadnienia, w jaki sposób SI podjęła konkretną decyzję. Takie rozwiązanie jest trudne, ponieważ większość SI koduje się sama poprzez uczenie maszynowe i z pomocą zbiorów danych, a nie poprzez jawne programowanie. Tym samym może być ciężko nam się dowiedzieć, w jaki sposób decyzja została podjęta. “Wyjaśnialne AI” można opisać jako „łańcuchy rozumowania”, które udowodnią, dlaczego podejmowane decyzje są właściwe. Konieczność stworzenia Explainable AI będzie coraz bardziej paląca, ponieważ strach, brak zrozumienia jak działa i jakie są ograniczenia AI, jest nadal duży. Dzięki lepszemu zrozumieniu, jak jest ona wykorzystywana i jak podejmuje decyzje, firmy zyskają większe zaufanie do produktów AI, szczególnie w zakresie bezpieczeństwa.

 

Innowacja czy inwencja?

W tej dziedzinie firmy muszą wykazać się innowacyjnością, aby stworzyć samonapędzający się mechanizm poprawy bezpieczeństwa. Prawie dwie trzecie (63%, dane z raportu) firm ocenia, że ma jeszcze długą drogę do przebycia. Zasady organizacji ML/AI powinny być tak samo uniwersalne, jak w przypadku płac czy kadr. Oznacza to, że producenci powinni przykładać większą uwagę do tego, aby technologie sztucznej inteligencji i uczenia maszynowego były bardziej zrozumiałe dla organizacji docelowej. W tym wypadku ważna jest odpowiednia postawa, budująca zaufanie do nowości. Tylko wtedy znikną obawy związane z aplikacjami bezpieczeństwa opartymi na ML/AI.

 

Lenovo ogłosiło dziś rekordowe wyniki finansowe Grupy za pierwszy kwartał, podwojono dochód netto w ramach strategii kontynuacji zrównoważonego wzrostu rentowności i długofalowego rozwoju!