Microsoft: Większość korporacji z Fortune 500 korzysta z agentów AI bez odpowiedniej ochrony

Najnowsze dane Microsoftu pokazują, że ponad 80% największych przedsiębiorstw wdrożyło już agenty AI, by automatyzować procesy biznesowe. Jednocześnie mniej niż połowa tych organizacji dysponuje odpowiednimi zabezpieczeniami, co tworzy niebezpieczną lukę między innowacją a ochroną danych.

 

Adopcja technologii nabiera tempa w Europie

Region obejmujący Europę, Bliski Wschód i Afrykę (EMEA) zajmuje obecnie pozycję lidera w implementacji nowoczesnych rozwiązań automatyzacyjnych. Z raportu Microsoft Cyber Pulse wynika, że aż 42% organizacji z tego obszaru wykorzystuje agenty AI w codziennej pracy, co stanowi wynik znacznie wyższy niż w Stanach Zjednoczonych czy Azji. Narzędzia te najchętniej wybiera sektor informatyczny, jednak ich obecność staje się coraz bardziej wyraźna także w przemyśle, finansach oraz handlu detalicznym, gdzie wspierają logistykę i obsługę klienta.

 

Zagrożenie ze strony niekontrolowanego oprogramowania

Mimo masowego zainteresowania nowymi możliwościami, kwestie bezpieczeństwa nie nadążają za tempem wdrażania innowacji. Jedynie 47% badanych podmiotów posiada konkretne procedury chroniące systemy oparte na generatywnej sztucznej inteligencji. Dużym wyzwaniem pozostaje zjawisko określane jako “Shadow AI” – niemal co trzeci pracownik korzysta z agentów, którzy nie uzyskali oficjalnej akceptacji działów technicznych. Taka sytuacja uniemożliwia nadzór nad przetwarzanymi danymi i może skutkować niekontrolowanym wyciekiem wrażliwych informacji poza strukturę przedsiębiorstwa.

 

Zero Trust jako fundament bezpiecznej automatyzacji

Specjaliści podkreślają, że właściwą reakcją na te wyzwania nie jest wstrzymanie rozwoju, lecz zmiana sposobu zarządzania cyfrowymi asystentami. Agenty AI powinny być traktowane jak pełnoprawne tożsamości cyfrowe, podlegające tym samym rygorystycznym zasadom weryfikacji co pracownicy. Model Zero Trust wymaga w tym przypadku ograniczenia uprawnień algorytmów do absolutnego niezbędnego minimum oraz stałego kontrolowania każdego zapytania w czasie rzeczywistym. Równie istotne jest przygotowanie systemów na ewentualne incydenty, aby maksymalnie zredukować skutki potencjalnych naruszeń.

 

Manipulacje i nowe powierzchnie ataku

Sztuczna inteligencja, choć niezwykle pomocna, otwiera przed cyberprzestępcami zupełnie nowe metody działania. Krzysztof Malesa, dyrektor do spraw bezpieczeństwa w polskim oddziale Microsoft, zwraca uwagę, że źle zabezpieczona technologia może stać się celem ataku poprzez manipulowanie poleceniami, czyli tak zwanymi promptami. Jak zaznacza Malesa:

„sztuczna inteligencja wdrożona w nieprzemyślany sposób i z pominięciem analizy ryzyka (…) może zostać wykorzystana przez atakujących do zakłócenia działania naszych systemów”.

Z tego powodu konieczne jest włączenie AI do obszarów objętych szczególną ochroną w firmowej infrastrukturze.

 

 

Odpowiedzialność zarządów za ład technologiczny

Skuteczne wdrożenie agentów wymaga zaangażowania najwyższego kierownictwa, a w szczególności osób odpowiedzialnych za cyberbezpieczeństwo. Oprócz korzystania z certyfikowanych platform, firmy muszą opracować precyzyjne scenariusze reagowania na sytuacje kryzysowe wynikające z błędnego działania algorytmów. Kluczowe staje się zachowanie pełnej przejrzystości operacji wykonywanych przez oprogramowanie, co pozwala uniknąć strat operacyjnych oraz szkód wizerunkowych, jakie niesie ze sobą brak nadzoru nad automatyzacją.