Agencja Unii Europejskiej ds. Cyberbezpieczeństwa wskazuje 4 najważniejsze wyzwania związane z AI.

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) opublikowała raport poświęcony nadzorowi nad bezpieczną i godną zaufania sztuczną inteligencją, wskazując najważniejsze wyzwania związane z AI. 

Ostatnie osiągnięcia w systemach sztucznej inteligencji, czy raczej ich popularyzacja, zwróciły uwagę świata na najważniejsze aspekty cyberbezpieczeństwa z nimi związane. Konferencja ENISA AI Cybersecurity Conference, mająca miejsce 7 czerwca w Brukseli, miała na celu stworzenie platformy dla całej społeczności do dzielenia się doświadczeniami oraz omawiania wyzwań i możliwości związanych z AI. Wydarzenie promowało współpracę w społeczności zajmującej się cyberbezpieczeństwem w celu refleksji nad wnioskiem dotyczącym rozporządzenia UE w sprawie sztucznej inteligencji.

Cztery panele konferencji dotyczyły technicznych wyzwań związanych z cyberbezpieczeństwem chatbotów AI, potrzeb w zakresie badań i innowacji oraz kwestii bezpieczeństwa związanych z certyfikacją cyberbezpieczeństwa systemów AI. Wspieranie decydentów politycznych, w tym organów krajowych, wytycznymi dotyczącymi najlepszych praktyk i przypadków użytkowników, przy jednoczesnym promowaniu norm w całej UE, daje UE możliwość objęcia przewodnictwa na całym świecie w tworzeniu bezpiecznej i godnej zaufania sztucznej inteligencji. Wystąpienia prelegentów wysokiego szczebla koncentrowały się na generatywnej sztucznej inteligencji, prawnej i politycznej perspektywie nadchodzącej ustawy o sztucznej inteligencji oraz działaniach już podjętych przez niemiecką agencję cyberbezpieczeństwa, BSI. ENISA wskazała także 4 najważniejsze wyzwania związane z AI:

 

1. Ustanowienie dobrych praktyk w zakresie cyberbezpieczeństwa dla sztucznej inteligencji: raport stanowi skalowalne ramy, które pomogą krajowym organom ds. cyberbezpieczeństwa (NCA) i społeczności AI w zabezpieczaniu systemów, operacji i procesów AI. Ramy składają się z trzech warstw (podstawy cyberbezpieczeństwa, cyberbezpieczeństwo specyficzne dla sztucznej inteligencji i cyberbezpieczeństwo specyficzne dla branży sztucznej inteligencji) i mają na celu zapewnienie krok po kroku podejścia do przestrzegania dobrych praktyk w zakresie cyberbezpieczeństwa w celu zapewnienia niezawodności systemów sztucznej inteligencji.

2. Cyberbezpieczeństwo i prywatność w AI: dwa przypadki użycia: prognozowanie zapotrzebowania w sieciach elektrycznych i diagnostyka obrazowania medycznego Oba raporty opisują zagrożenia dla cyberbezpieczeństwa i prywatności, a także podatności, które można wykorzystać w każdym przypadku użycia. Analiza skupiła się na zagrożeniach i podatnościach związanych z uczeniem maszynowym, biorąc pod uwagę szersze aspekty sztucznej inteligencji. Prace koncentrują się jednak na kwestiach prywatności, ponieważ stały się one jednym z najważniejszych wyzwań, przed którymi stoi dzisiejsze społeczeństwo. Bezpieczeństwo i prywatność są ze sobą ściśle powiązane i oba są równie ważne. Należy znaleźć równowagę, aby spełnić powiązane wymagania. Z raportu wynika jednak,

3. Badania nad sztuczną inteligencją i cyberbezpieczeństwem: W sprawozdaniu określono 5 kluczowych potrzeb badawczych w zakresie dalszych badań nad sztuczną inteligencją na potrzeby cyberbezpieczeństwa oraz nad sposobami zabezpieczenia sztucznej inteligencji na potrzeby przyszłego rozwoju polityki UE i inicjatyw finansowania. Takie potrzeby obejmują między innymi rozwój narzędzi do testów penetracyjnych w celu identyfikacji słabych punktów bezpieczeństwa lub opracowanie standardowych ram oceny prywatności i poufności.

4. Raport grupy docelowej: podmioty publiczne lub prywatne, w tym społeczność zajmująca się bezpieczeństwem cybernetycznym i prywatnością – w celu wsparcia analizy ryzyka, identyfikacji zagrożeń dla cyberbezpieczeństwa i prywatności oraz wyboru najodpowiedniejszych środków kontroli bezpieczeństwa i prywatności; Społeczność techniczna ds. sztucznej inteligencji, eksperci ds. cyberbezpieczeństwa i prywatności w zakresie sztucznej inteligencji oraz eksperci ds. sztucznej inteligencji zainteresowani opracowywaniem bezpiecznych rozwiązań i dodawaniem bezpieczeństwa i prywatności już na etapie projektowania do swoich rozwiązań.