Czego dotyczą prekursorskie regulacje AI w Europie?
Decydenci i prawodawcy Unii Europejskiej osiągnęli w piątek porozumienie w sprawie pierwszego na świecie kompleksowego zestawu przepisów regulujących wykorzystanie sztucznej inteligencji (AI) w narzędziach takich jak ChatGPT i w nadzorze biometrycznym.
- SYSTEMY WYSOKIEGO RYZYKA
Tak zwane systemy sztucznej inteligencji wysokiego ryzyka – uznawane za mogące znacząco potencjalnie zaszkodzić zdrowiu, bezpieczeństwu, prawom podstawowym, środowisku, demokracji, wyborom i praworządności – będą musiały spełniać szereg wymogów, takich jak przejście przez ocenę wpływu na prawa podstawowe oraz obowiązki związane z uzyskaniem dostępu do rynku UE.
Systemy sztucznej inteligencji uznane za stwarzające ograniczone ryzyko podlegałyby bardzo niewielkim wymogom w zakresie przejrzystości, takim jak etykiety ujawniające informujące, że treści zostały wygenerowane przez sztuczną inteligencję, aby umożliwić użytkownikom podjęcie decyzji o sposobie ich wykorzystania.
- WYKORZYSTANIE AI W EGZEKUCJI PRAWA
Stosowanie przez organy ścigania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej będzie dozwolone wyłącznie w celu pomocy w identyfikacji ofiar porwań, handlu ludźmi i wykorzystywania seksualnego oraz w celu zapobiegania konkretnemu i aktualnemu zagrożeniu terrorystycznemu. Będą one również dozwolone w wysiłkach mających na celu wyśledzenie osób podejrzanych o przestępstwa terrorystyczne, handel ludźmi, wykorzystywanie seksualne, morderstwa, porwania, gwałty, napady z bronią w ręku, udział w organizacji przestępczej i przestępstwa przeciwko środowisku.
- SYSTEMY AI OGÓLNEGO PRZEZNACZENIA (GPAI) I MODELE PODSTAWOWE
GPAI i modele podstawowe będą podlegać wymogom przejrzystości, takim jak sporządzanie dokumentacji technicznej, przestrzeganie unijnego prawa autorskiego i rozpowszechnianie szczegółowych podsumowań treści wykorzystywanych do szkolenia algorytmów.
Podstawowe modele sklasyfikowane jako stwarzające ryzyko systemowe i GPAI o dużym wpływie będą musiały przeprowadzać oceny modeli, oceniać i ograniczać ryzyko, przeprowadzać testy kontradyktoryjne, zgłaszać Komisji Europejskiej poważne incydenty, zapewniać cyberbezpieczeństwo i składać sprawozdania na temat ich efektywności energetycznej. Do czasu opublikowania zharmonizowanych standardów UE GPAI obciążone ryzykiem systemowym mogą opierać się na kodeksach postępowania, aby zachować zgodność z rozporządzeniem.
- ZABRONIONA AI
Przepisy zabraniają:
- używania systemów kategoryzacji biometrycznej wykorzystujących wrażliwe cechy, takie jak przekonania polityczne, religijne, filozoficzne, orientacja seksualna i rasa;
- nieukierunkowanego pobierania wizerunków twarzy z Internetu lub nagrań CCTV w celu utworzenia baz danych umożliwiających rozpoznawanie twarzy;
- rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych;
- punktacji społecznej opartej na zachowaniach społecznych lub cechach osobistych;
- systemów sztucznej inteligencji manipulujących ludzkimi zachowaniami w celu obejścia ich wolnej woli;
- stosowania AI do wykorzystywania słabości ludzi ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną.
- SANKCJE ZA NARUSZENIA
W zależności od naruszenia i wielkości przedsiębiorstwa kary będą zaczynać się od 7,5 mln euro (8 mln dolarów) lub 1,5% światowego rocznego obrotu i sięgać aż do 35 mln euro lub 7% światowego obrotu.
W nadchodzących tygodniach będą omawiane szczegóły, które mogą zmienić ostateczne przepisy. Uzgodnienia mają wejść w życie na początku przyszłego roku i powszechnie zacząć obowiązywać w 2026 r. Do tego czasu UE zachęca firmy do przystąpienia do dobrowolnego Paktu na rzecz sztucznej inteligencji w celu wdrożenia kluczowych obowiązków wynikających z przepisów.