Posłowie gotowi do negocjacji przepisów o bezpiecznej i przejrzystej SI
Sztuczna inteligencja ma być ukierunkowana na człowieka i godna zaufania, przy jednoczesnej ochronie zdrowia, bezpieczeństwa, praw podstawowych i demokracji przed jej szkodliwymi skutkami.
W środę Parlament Europejski 499 głosami za, przy 28 przeciw i 93 wstrzymujących się, przyjął stanowisko negocjacyjne w sprawie aktu o sztucznej inteligencji. Teraz będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu. Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii. Uregulują kwestie sprawowania nadzoru przez człowieka, bezpieczeństwa, prywatności, przejrzystości, niedyskryminacji oraz dobrostanu społecznego i środowiskowego.
Zakazane praktyki związane ze sztuczną inteligencją
Proponowane zasady wynikają z podejścia opartego na ryzyku. Ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych). Posłowie rozszerzyli wykaz zakazanych praktyk o inwazyjne i dyskryminujące zastosowania sztucznej inteligencji, takie jak:
- wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym
- wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej post-factum, z jednym wyjątkiem, dotyczącym ścigania poważnych przestępstw, z uprzednią autoryzacją sądu,
- systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasa, pochodzenie etniczne, status obywatelski, religia, orientacja polityczna),
- systemy prognozowania kryminologicznego (w oparciu o profilowanie, lokalizację lub wcześniejsze zachowania przestępcze),
- systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych oraz
- nieukierunkowane pobieranie obrazów twarzy z internetu lub nagrań telewizji przemysłowej do tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności).
Sztuczna inteligencja wysokiego ryzyka
Posłowie zadbali o to, by klasyfikacja zastosowań wysokiego ryzyka obejmowała takie systemy sztucznej inteligencji, które przynoszą znaczne szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do wykazu systemów wysokiego ryzyka dodali systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).
Obowiązki w zakresie sztucznej inteligencji ogólnego przeznaczenia
Dostawcy modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek Unii. Generatywne systemy sztucznej inteligencji, oparte na takich modelach, takie jak ChatGPT, musiałyby spełniać wymogi przejrzystości. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych głębokich fałszywych obrazów „deep fake” od prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści. Trzeba będzie też publikować szczegółowe podsumowania danych chronionych prawem autorskim, które wykorzystano do szkolenia tych systemów.
Wspieranie innowacji i ochrona praw obywateli
Posłowie chcą pobudzać innowacje w zakresie sztucznej inteligencji i wspierać MŚP. Dlatego dodali wyjątki obejmujące badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source. Nowe prawo promuje tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem.
Ponadto posłowie chcą, by obywatelom było łatwiej składać skargi dotyczące systemów SI. Powinni mieć też łatwiejszy dostęp do wyjaśnień dotyczących decyzji opartych na systemach SI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Posłowie zreformowali również zakres zadań Rady ds. Sztucznej Inteligencji. Miałaby ona monitorować sposób wdrażania przepisów dotyczących sztucznej inteligencji.