Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

USA, Wielka Brytania i inne kraje podpisały nowe porozumienie dot. bezpieczeństwa AI

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów ogłosiły w niedzielę podpisały pierwsze szczegółowe międzynarodowe porozumienie w sprawie sposobu ochrony sztucznej inteligencji przed nieuczciwymi podmiotami. Dokument kładzie nacisk na  firmy, aby tworzyły systemy sztucznej inteligencji, które są niejako „zabezpieczone poprzez projekt”. 

Rozwój sztucznej inteligencji wzbudził wiele obaw, w tym tę, że można ją wykorzystać między innymi do zakłócenia przebiegu wyborów demokratycznych, zwiększenia oszustwa lub doprowadzenia do dramatycznych przetasowań na rynku pracy.

Porozumienie jest najnowszą z szeregu inicjatyw – z których niewiele jest trwałych – podjętych przez rządy na całym świecie. Ich wspólny mianownikiem jest chęć kształtowania rozwoju sztucznej inteligencji, której znaczenie jest coraz bardziej odczuwalne w przemyśle i całym społeczeństwie.

Ramy dokumentu dotyczą kwestii takich jak zapobieganie przejęcia technologii sztucznej inteligencji przez hakerów i zawierają zalecenia, takie jak udostępnianie modeli dopiero po odpowiednich testach bezpieczeństwa. Co ważne, porozumienie nie porusza drażliwych pytań dotyczących odpowiedniego wykorzystania sztucznej inteligencji ani sposobu gromadzenia danych, które zasilają te modele.

Umowa nie ma charakteru wiążącego i zawiera głównie ogólne zalecenia, takie jak monitorowanie systemów AI pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

W 20-stronicowym dokumencie zaprezentowanym w niedzielę 18 krajów zgodziło się, że firmy projektujące i wykorzystujące sztuczną inteligencję muszą ją rozwijać i wdrażać w sposób chroniący klientów i ogół społeczeństwa przed niewłaściwym wykorzystaniem.

Oprócz Stanów Zjednoczonych i Wielkiej Brytanii do 18 krajów, które podpisały się pod nowymi wytycznymi, należą Niemcy, Włochy, Czechy, Estonia, Polska, Australia, Chile, Izrael, Nigeria i Singapur.

Europa wyprzedza Stany Zjednoczone pod względem wprowadzanych przepisów dotyczących sztucznej inteligencji. Francja, Niemcy i Włochy – o czym informowaliśmy w zeszłym tygodniu – również niedawno doszły do porozumienia w sprawie sposobu regulacji sztucznej inteligencji, które wspiera „obowiązkową samoregulację w drodze kodeksów postępowania” w przypadku tak zwanych podstawowych modeli sztucznej inteligencji, które mają generować szeroki zakres wyników.

Administracja Bidena naciskała na prawodawców w sprawie regulacji dotyczących sztucznej inteligencji, ale spolaryzowany Kongres USA poczynił niewielkie postępy w uchwalaniu skutecznych regulacji.

Biały Dom starał się zmniejszyć ryzyko związane ze sztuczną inteligencją dla konsumentów, pracowników i grup mniejszościowych, jednocześnie wzmacniając bezpieczeństwo narodowe nowym rozporządzeniem wykonawczym wydanym w październiku.