Komisja Europejska chce jasnego oznaczania treści generowanych przez AI

Komisja Europejska rozpoczęła konsultacje projektu wytycznych dotyczących obowiązków przejrzystości dla systemów sztucznej inteligencji. Od 2 sierpnia 2026 roku użytkownicy w Unii Europejskiej mają być informowani, kiedy rozmawiają z AI lub mają kontakt z treściami wygenerowanymi albo zmanipulowanymi przez algorytmy. Nowe zasady obejmą m.in. chatboty, agentów AI, deep fake’i oraz publikacje tworzone automatycznie na tematy istotne społecznie.

Komisja Europejska opublikowała projekt wytycznych do art. 50 unijnego AI Act, czyli przepisów dotyczących obowiązków przejrzystości dla wybranych systemów sztucznej inteligencji. Dokument ma pomóc firmom, administracji i twórcom usług AI w interpretacji nowych regulacji przed ich wejściem w życie.

Zgodnie z projektem, dostawcy systemów AI będą musieli jasno informować użytkowników, że rozmawiają z maszyną, a nie człowiekiem. Dotyczy to chatbotów, asystentów głosowych, agentów AI czy cyfrowych awatarów. Komisja podkreśla, że komunikaty muszą być widoczne, zrozumiałe i dostosowane także do dzieci, osób starszych oraz użytkowników z niepełnosprawnościami.

Wytyczne wskazują też przykłady praktyk, które nie będą uznawane za wystarczające. Sam zapis w regulaminie lub ukryta informacja w dokumentacji technicznej nie spełni wymogów AI Act. Komisja rekomenduje natomiast komunikaty tekstowe, oznaczenia wizualne oraz komunikaty głosowe pojawiające się już przy pierwszym kontakcie z systemem.

 

Deep fake’i pod szczególnym nadzorem

Szczególną uwagę Bruksela poświęca deep fake’om. Zgodnie z projektem, za deep fake uznawane będą wygenerowane lub zmanipulowane obrazy, nagrania audio i wideo przypominające prawdziwe osoby, miejsca czy wydarzenia, które mogą zostać odebrane jako autentyczne.

Firmy wykorzystujące takie materiały będą musiały wyraźnie oznaczać ich sztuczne pochodzenie, a obowiązek obejmie m.in. reklamy, materiały polityczne czy treści publikowane w mediach społecznościowych. Komisja przewiduje jednak łagodniejsze zasady dla dzieł artystycznych, satyrycznych i fikcyjnych, o ile odbiorca może łatwo rozpoznać ich charakter.

Projekt odnosi się także do publikacji tekstowych tworzonych przez AI. Jeśli automatycznie generowany lub modyfikowany tekst będzie publikowany w celu informowania opinii publicznej o sprawach społecznych, politycznych czy gospodarczych, jego autorzy również będą musieli ujawnić użycie sztucznej inteligencji. Wyjątkiem mają być materiały poddane realnej kontroli redakcyjnej i odpowiedzialności wydawcy.

 

UE łagodzi AI Act, nowe przepisy później i z wyjątkami dla biznesu

 

Kary sięgną miliardów euro

AI Act przewiduje wysokie sankcje za naruszenie zasad przejrzystości. Komisja przypomina, że firmy mogą zostać ukarane grzywną do 15 mln euro lub 3% globalnego rocznego obrotu.

W praktyce nowe przepisy mogą znacząco wpłynąć na sposób działania platform społecznościowych, producentów modeli generatywnych i mediów. Szczególnie istotne będzie wdrożenie systemów znakowania treści AI w sposób możliwy do automatycznego wykrywania przez platformy internetowe i wyszukiwarki. Komisja wprost wskazuje, że nowe regulacje mają ograniczać ryzyko manipulacji, oszustw i dezinformacji na dużą skalę.

Konsultacje projektu potrwają do 3 czerwca 2026 roku, a finalna wersja wytycznych ma zostać opublikowana jeszcze przed wejściem przepisów w życie. Komisja pracuje również nad dobrowolnym kodeksem postępowania dla firm rozwijających systemy AI.