Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa wskazuje 4 najważniejsze wyzwania związane z AI.

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) opublikowała raport poświęcony nadzorowi nad bezpieczną i godną zaufania sztuczną inteligencją, wskazując najważniejsze wyzwania związane z AI. 

Ostatnie osiągnięcia w systemach sztucznej inteligencji, czy raczej ich popularyzacja, zwróciły uwagę świata na najważniejsze aspekty cyberbezpieczeństwa z nimi związane. Konferencja ENISA AI Cybersecurity Conference, mająca miejsce 7 czerwca w Brukseli, miała na celu stworzenie platformy dla całej społeczności do dzielenia się doświadczeniami oraz omawiania wyzwań i możliwości związanych z AI. Wydarzenie promowało współpracę w społeczności zajmującej się cyberbezpieczeństwem w celu refleksji nad wnioskiem dotyczącym rozporządzenia UE w sprawie sztucznej inteligencji.

Cztery panele konferencji dotyczyły technicznych wyzwań związanych z cyberbezpieczeństwem chatbotów AI, potrzeb w zakresie badań i innowacji oraz kwestii bezpieczeństwa związanych z certyfikacją cyberbezpieczeństwa systemów AI. Wspieranie decydentów politycznych, w tym organów krajowych, wytycznymi dotyczącymi najlepszych praktyk i przypadków użytkowników, przy jednoczesnym promowaniu norm w całej UE, daje UE możliwość objęcia przewodnictwa na całym świecie w tworzeniu bezpiecznej i godnej zaufania sztucznej inteligencji. Wystąpienia prelegentów wysokiego szczebla koncentrowały się na generatywnej sztucznej inteligencji, prawnej i politycznej perspektywie nadchodzącej ustawy o sztucznej inteligencji oraz działaniach już podjętych przez niemiecką agencję cyberbezpieczeństwa, BSI. ENISA wskazała także 4 najważniejsze wyzwania związane z AI:

 

1. Ustanowienie dobrych praktyk w zakresie cyberbezpieczeństwa dla sztucznej inteligencji: raport stanowi skalowalne ramy, które pomogą krajowym organom ds. cyberbezpieczeństwa (NCA) i społeczności AI w zabezpieczaniu systemów, operacji i procesów AI. Ramy składają się z trzech warstw (podstawy cyberbezpieczeństwa, cyberbezpieczeństwo specyficzne dla sztucznej inteligencji i cyberbezpieczeństwo specyficzne dla branży sztucznej inteligencji) i mają na celu zapewnienie krok po kroku podejścia do przestrzegania dobrych praktyk w zakresie cyberbezpieczeństwa w celu zapewnienia niezawodności systemów sztucznej inteligencji.

2. Cyberbezpieczeństwo i prywatność w AI: dwa przypadki użycia: prognozowanie zapotrzebowania w sieciach elektrycznych i diagnostyka obrazowania medycznego Oba raporty opisują zagrożenia dla cyberbezpieczeństwa i prywatności, a także podatności, które można wykorzystać w każdym przypadku użycia. Analiza skupiła się na zagrożeniach i podatnościach związanych z uczeniem maszynowym, biorąc pod uwagę szersze aspekty sztucznej inteligencji. Prace koncentrują się jednak na kwestiach prywatności, ponieważ stały się one jednym z najważniejszych wyzwań, przed którymi stoi dzisiejsze społeczeństwo. Bezpieczeństwo i prywatność są ze sobą ściśle powiązane i oba są równie ważne. Należy znaleźć równowagę, aby spełnić powiązane wymagania. Z raportu wynika jednak,

3. Badania nad sztuczną inteligencją i cyberbezpieczeństwem: W sprawozdaniu określono 5 kluczowych potrzeb badawczych w zakresie dalszych badań nad sztuczną inteligencją na potrzeby cyberbezpieczeństwa oraz nad sposobami zabezpieczenia sztucznej inteligencji na potrzeby przyszłego rozwoju polityki UE i inicjatyw finansowania. Takie potrzeby obejmują między innymi rozwój narzędzi do testów penetracyjnych w celu identyfikacji słabych punktów bezpieczeństwa lub opracowanie standardowych ram oceny prywatności i poufności.

4. Raport grupy docelowej: podmioty publiczne lub prywatne, w tym społeczność zajmująca się bezpieczeństwem cybernetycznym i prywatnością – w celu wsparcia analizy ryzyka, identyfikacji zagrożeń dla cyberbezpieczeństwa i prywatności oraz wyboru najodpowiedniejszych środków kontroli bezpieczeństwa i prywatności; Społeczność techniczna ds. sztucznej inteligencji, eksperci ds. cyberbezpieczeństwa i prywatności w zakresie sztucznej inteligencji oraz eksperci ds. sztucznej inteligencji zainteresowani opracowywaniem bezpiecznych rozwiązań i dodawaniem bezpieczeństwa i prywatności już na etapie projektowania do swoich rozwiązań.