Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

UE wybrała ekspertów do kierowania przepisami dotyczącymi zgodności AI 

Unia Europejska wybrała kilku ekspertów w dziedzinie sztucznej inteligencji, którzy zdecydują, jak ściśle firmy będą musiały przestrzegać szeregu nadchodzących przepisów regulujących tę technologię.

Eksperci wybrani do nadzorowania grup to kanadyjski naukowiec i „ojciec chrzestny AI” Yoshua Bengio, były doradca ds. polityki rządu Wielkiej Brytanii Nitarshan Rajkumar oraz Marietje Schaake, pracownik naukowy Cyber ​​Policy Center na Uniwersytecie Stanforda. W grupach roboczych będą reprezentowane duże firmy technologiczne, takie jak Google i Microsoft, a także szereg organizacji non-profit i ekspertów akademickich.

W poniedziałek Komisja Europejska zwołała pierwsze plenarne posiedzenie grup roboczych – złożonych z zewnętrznych ekspertów – których zadaniem będzie opracowanie „kodeksu postępowania” ustawy o AI, który dokładnie określi, w jaki sposób firmy mogą przestrzegać szerokiego zakresu przepisów. Istnieją cztery grupy robocze, skupiające się na takich kwestiach, jak prawa autorskie i ograniczanie ryzyka.

Po poniedziałku grupy robocze spotkają się jeszcze trzy razy przed ostatecznym spotkaniem w kwietniu, kiedy to mają przedstawić Komisji kodeks postępowania. Jeśli zostanie zaakceptowany, wysiłki firm na rzecz zgodności będą mierzone w oparciu o kodeks postępowania od sierpnia 2025 r.

Chociaż kodeks postępowania nie będzie prawnie wiążący, gdy wejdzie w życie w 2024 r., zapewni firmom listę kontrolną, której mogą użyć, aby wykazać swoją zgodność. Każda firma, która twierdzi, że przestrzega prawa, ignorując kodeks, może stanąć w obliczu wyzwania prawnego.

Firmy AI są bardzo niechętne ujawnianiu treści, na których trenowano ich modele, opisując te informacje jako tajemnicę handlową, która mogłaby dać konkurentom nieuczciwą przewagę, gdyby została ujawniona. Chociaż tekst ustawy o AI mówi, że niektóre firmy będą zobowiązane do dostarczania szczegółowych podsumowań danych użytych do trenowania ich modeli AI, oczekuje się, że kodeks postępowania wyjaśni, jak szczegółowe te podsumowania będą musiały być.

Jedna z czterech grup roboczych UE skupi się konkretnie na kwestiach przejrzystości i praw autorskich, co może skutkować faktycznym zmuszeniem firm do publikowania kompleksowych zestawów danych, co narazi je na nieprzetestowane wyzwania prawne.