USA, Wielka Brytania i inne kraje podpisały nowe porozumienie dot. bezpieczeństwa AI

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów ogłosiły w niedzielę podpisały pierwsze szczegółowe międzynarodowe porozumienie w sprawie sposobu ochrony sztucznej inteligencji przed nieuczciwymi podmiotami. Dokument kładzie nacisk na  firmy, aby tworzyły systemy sztucznej inteligencji, które są niejako „zabezpieczone poprzez projekt”. 

Rozwój sztucznej inteligencji wzbudził wiele obaw, w tym tę, że można ją wykorzystać między innymi do zakłócenia przebiegu wyborów demokratycznych, zwiększenia oszustwa lub doprowadzenia do dramatycznych przetasowań na rynku pracy.

Porozumienie jest najnowszą z szeregu inicjatyw – z których niewiele jest trwałych – podjętych przez rządy na całym świecie. Ich wspólny mianownikiem jest chęć kształtowania rozwoju sztucznej inteligencji, której znaczenie jest coraz bardziej odczuwalne w przemyśle i całym społeczeństwie.

Ramy dokumentu dotyczą kwestii takich jak zapobieganie przejęcia technologii sztucznej inteligencji przez hakerów i zawierają zalecenia, takie jak udostępnianie modeli dopiero po odpowiednich testach bezpieczeństwa. Co ważne, porozumienie nie porusza drażliwych pytań dotyczących odpowiedniego wykorzystania sztucznej inteligencji ani sposobu gromadzenia danych, które zasilają te modele.

Umowa nie ma charakteru wiążącego i zawiera głównie ogólne zalecenia, takie jak monitorowanie systemów AI pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

W 20-stronicowym dokumencie zaprezentowanym w niedzielę 18 krajów zgodziło się, że firmy projektujące i wykorzystujące sztuczną inteligencję muszą ją rozwijać i wdrażać w sposób chroniący klientów i ogół społeczeństwa przed niewłaściwym wykorzystaniem.

Oprócz Stanów Zjednoczonych i Wielkiej Brytanii do 18 krajów, które podpisały się pod nowymi wytycznymi, należą Niemcy, Włochy, Czechy, Estonia, Polska, Australia, Chile, Izrael, Nigeria i Singapur.

Europa wyprzedza Stany Zjednoczone pod względem wprowadzanych przepisów dotyczących sztucznej inteligencji. Francja, Niemcy i Włochy – o czym informowaliśmy w zeszłym tygodniu – również niedawno doszły do porozumienia w sprawie sposobu regulacji sztucznej inteligencji, które wspiera „obowiązkową samoregulację w drodze kodeksów postępowania” w przypadku tak zwanych podstawowych modeli sztucznej inteligencji, które mają generować szeroki zakres wyników.

Administracja Bidena naciskała na prawodawców w sprawie regulacji dotyczących sztucznej inteligencji, ale spolaryzowany Kongres USA poczynił niewielkie postępy w uchwalaniu skutecznych regulacji.

Biały Dom starał się zmniejszyć ryzyko związane ze sztuczną inteligencją dla konsumentów, pracowników i grup mniejszościowych, jednocześnie wzmacniając bezpieczeństwo narodowe nowym rozporządzeniem wykonawczym wydanym w październiku.