Unijne prawo dotyczące AI będzie bardziej restrykcyjne?
Prawodawcy Unii Europejskiej zgodzili się w środę na zmiany w projekcie przepisów dotyczących sztucznej inteligencji, aby uwzględnić zakaz stosowania technologii w nadzorze biometrycznym oraz generatywne systemy sztucznej inteligencji, takie jak ChatGPT, w celu ujawniania treści generowanych przez sztuczną inteligencję.
Jak podaje Reuters, zmiany w proponowanej przez Komisję Europejską przełomowej ustawie, której celem jest ochrona obywateli przed zagrożeniami związanymi z technologią, mogą wywołać starcie z krajami UE sprzeciwiającymi się całkowitemu zakazowi stosowania sztucznej inteligencji w nadzorze biometrycznym. Szybkie przyjęcie wspieranego przez Microsoft OpenAI ChatGPT i innych botów skłoniło czołowych naukowców zajmujących się sztuczną inteligencją i dyrektorów firm, w tym Elona Musk z Tesli i Sama Altmana z OpenAI, do podniesienia kwestii potencjalnych zagrożeń dla społeczeństwa.
„Podczas gdy firmy Big Tech biją na alarm w związku z własnymi dziełami, Europa poszła naprzód i zaproponowała konkretną odpowiedź na zagrożenia, jakie zaczyna stwarzać sztuczna inteligencja” – powiedział Brando Benifei, współsprawodawca projektu ustawy.
Podczas gdy większość dużych firm technologicznych zdaje sobie sprawę z zagrożeń stwarzanych przez sztuczną inteligencję, inne, takie jak Meta, która jest właścicielem Facebooka i Instagrama, odrzuciły ostrzeżenia o potencjalnych zagrożeniach. „Sztuczna inteligencja jest z natury dobra, ponieważ efektem sztucznej inteligencji jest uczynienie ludzi mądrzejszymi” – powiedział główny naukowiec AI w Meta, Yann LeCun, na konferencji w Paryżu w środę.
„Sztuczna inteligencja rodzi wiele pytań – społecznych, etycznych, ekonomicznych. Ale teraz nie jest czas na naciskanie przycisku „pauzy”. Wręcz przeciwnie, chodzi o szybkie działanie i wzięcie odpowiedzialności” – powiedział szef unijnego przemysłu Thierry Breton. Powiedział, że w przyszłym tygodniu pojedzie do Stanów Zjednoczonych, aby spotkać się z dyrektorem generalnym Meta Markiem Zuckerbergiem i Altmanem z OpenAI, aby omówić projekt ustawy o sztucznej inteligencji. Komisja ogłosiła projekt przepisów dwa lata temu, mając na celu ustanowienie globalnego standardu klucza technologicznego dla prawie każdej branży i biznesu, ponieważ UE stara się dogonić liderów AI, Stany Zjednoczone i Chiny.
Ustawodawcy Unii Europejskiej chcą między innymi, aby każda firma korzystająca z narzędzi generatywnych ujawniała materiały chronione prawem autorskim wykorzystywane do trenowania swoich systemów, a firmy pracujące nad „aplikacjami wysokiego ryzyka” przeprowadzały ocenę wpływu na prawa podstawowe i ocenę wpływu na środowisko.
Systemy takie jak ChatGPT musiałyby ujawniać, że treść została wygenerowana przez sztuczną inteligencję, pomagać w odróżnianiu tak zwanych głęboko fałszywych (deepfake) obrazów od prawdziwych i zapewniać zabezpieczenia przed nielegalnymi treściami.
Microsoft i IBM z zadowoleniem przyjęły ostatnie posunięcie prawodawców UE, ale oczekiwały dalszego udoskonalenia proponowanych przepisów. „Wierzymy, że sztuczna inteligencja wymaga legislacyjnych poręczy, działań dostosowawczych na poziomie międzynarodowym oraz znaczących dobrowolnych działań ze strony firm, które opracowują i wdrażają sztuczną inteligencję” – powiedział rzecznik Microsoftu.
Ustawodawcy będą musieli uzgodnić szczegóły z krajami UE zanim projekt przepisów stanie się prawem.
W obecnym projekcie unijnej ustawy do listy wysokiego ryzyka dodano systemy sztucznej inteligencji, które mogłyby być wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy wykorzystywane przez platformy mediów społecznościowych z ponad 45 milionami użytkowników. Meta i Twitter zostaną objęte tą klasyfikacją.