Czego dotyczą prekursorskie regulacje AI w Europie?

Decydenci i prawodawcy Unii Europejskiej osiągnęli w piątek porozumienie w sprawie pierwszego na świecie kompleksowego zestawu przepisów regulujących wykorzystanie sztucznej inteligencji (AI) w narzędziach takich jak ChatGPT i w nadzorze biometrycznym. 

  1. SYSTEMY WYSOKIEGO RYZYKA 

Tak zwane systemy sztucznej inteligencji wysokiego ryzyka – uznawane za mogące znacząco potencjalnie zaszkodzić zdrowiu, bezpieczeństwu, prawom podstawowym, środowisku, demokracji, wyborom i praworządności – będą musiały spełniać szereg wymogów, takich jak przejście przez ocenę wpływu na prawa podstawowe oraz obowiązki związane z uzyskaniem dostępu do rynku UE.

Systemy sztucznej inteligencji uznane za stwarzające ograniczone ryzyko podlegałyby bardzo niewielkim wymogom w zakresie przejrzystości, takim jak etykiety ujawniające informujące, że treści zostały wygenerowane przez sztuczną inteligencję, aby umożliwić użytkownikom podjęcie decyzji o sposobie ich wykorzystania.

  1. WYKORZYSTANIE AI W EGZEKUCJI PRAWA 

Stosowanie przez organy ścigania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej będzie dozwolone wyłącznie w celu pomocy w identyfikacji ofiar porwań, handlu ludźmi i wykorzystywania seksualnego oraz w celu zapobiegania konkretnemu i aktualnemu zagrożeniu terrorystycznemu. Będą one również dozwolone w wysiłkach mających na celu wyśledzenie osób podejrzanych o przestępstwa terrorystyczne, handel ludźmi, wykorzystywanie seksualne, morderstwa, porwania, gwałty, napady z bronią w ręku, udział w organizacji przestępczej i przestępstwa przeciwko środowisku.

  1. SYSTEMY AI OGÓLNEGO PRZEZNACZENIA (GPAI) I MODELE PODSTAWOWE 

GPAI i modele podstawowe będą podlegać wymogom przejrzystości, takim jak sporządzanie dokumentacji technicznej, przestrzeganie unijnego prawa autorskiego i rozpowszechnianie szczegółowych podsumowań treści wykorzystywanych do szkolenia algorytmów.

Podstawowe modele sklasyfikowane jako stwarzające ryzyko systemowe i GPAI o dużym wpływie będą musiały przeprowadzać oceny modeli, oceniać i ograniczać ryzyko, przeprowadzać testy kontradyktoryjne, zgłaszać Komisji Europejskiej poważne incydenty, zapewniać cyberbezpieczeństwo i składać sprawozdania na temat ich efektywności energetycznej. Do czasu opublikowania zharmonizowanych standardów UE GPAI obciążone ryzykiem systemowym mogą opierać się na kodeksach postępowania, aby zachować zgodność z rozporządzeniem.

  1. ZABRONIONA AI 

Przepisy zabraniają:

  • używania systemów kategoryzacji biometrycznej wykorzystujących wrażliwe cechy, takie jak przekonania polityczne, religijne, filozoficzne, orientacja seksualna i rasa;
  • nieukierunkowanego pobierania wizerunków twarzy z Internetu lub nagrań CCTV w celu utworzenia baz danych umożliwiających rozpoznawanie twarzy;
  • rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych;
  • punktacji społecznej opartej na zachowaniach społecznych lub cechach osobistych;
  • systemów sztucznej inteligencji manipulujących ludzkimi zachowaniami w celu obejścia ich wolnej woli;
  • stosowania AI do wykorzystywania słabości ludzi ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną.
  1. SANKCJE ZA NARUSZENIA 

W zależności od naruszenia i wielkości przedsiębiorstwa kary będą zaczynać się od 7,5 mln euro (8 mln dolarów) lub 1,5% światowego rocznego obrotu i sięgać aż do 35 mln euro lub 7% światowego obrotu.

W nadchodzących tygodniach będą omawiane szczegóły, które mogą zmienić ostateczne przepisy. Uzgodnienia mają wejść w życie na początku przyszłego roku i powszechnie zacząć obowiązywać w 2026 r. Do tego czasu UE zachęca firmy do przystąpienia do dobrowolnego Paktu na rzecz sztucznej inteligencji w celu wdrożenia kluczowych obowiązków wynikających z przepisów.

 

IT RESELLER nr 354/2023 „W dobie AI edukacja zyska jeszcze więcej” – podkreśla w wywiadzie okładkowym Jordan Chrysafidis, General Manager, WW Education Device Sales, Microsoft