Legislacyjny paraliż w Brukseli: Komisja Europejska spóźnia się z wytycznymi do AI Act

Komisja Europejska nie dotrzymała kluczowego terminu publikacji wytycznych dotyczących systemów sztucznej inteligencji wysokiego ryzyka, co stawia pod znakiem zapytania gotowość przedsiębiorstw do wdrożenia przepisów AI Act zaplanowanych na sierpień 2026 roku. Brak dokumentacji, która miała doprecyzować obowiązki operatorów i dostawców, pogłębia niepewność prawną w sektorach tak wrażliwych jak bankowość, ochrona zdrowia czy rekrutacja.

Zgodnie z pierwotnym harmonogramem Aktu o AI, początek lutego 2026 roku miał być momentem udostępnienia szczegółowych wytycznych dotyczących Artykułu 6, określającego obowiązki dla systemów wysokiego ryzyka. Opóźnienie to jest o tyle krytyczne, że od 2 sierpnia 2026 r. mają zacząć obowiązywać zasadnicze wymogi dla takich systemów, obejmujące m.in. konieczność prowadzenia dokumentacji technicznej i monitoringu po wprowadzeniu do obrotu. Przedstawiciele branży technologicznej oraz organizacje takie jak IAPP alarmują, że brak jasnych instrukcji uniemożliwia firmom terminowe dostosowanie procesów operacyjnych i budżetów do nowych rygorów prawnych.

Sytuację dodatkowo komplikuje propozycja tzw. „Digital Omnibus”, czyli pakietu uproszczeń regulacyjnych, w ramach którego Komisja rozważa przesunięcie części najbardziej restrykcyjnych przepisów dotyczących wysokiego ryzyka aż do grudnia 2027 roku. Oficjalnym powodem tych przymiarek są opóźnienia w procesach standaryzacji oraz chęć uniknięcia sytuacji, w której prawo zacznie obowiązywać przed udostępnieniem narzędzi do jego egzekwowania. Lobbyści z Polski, Niemiec i Francji, wspierani przez największe korporacje technologiczne, od miesięcy zabiegali o takie „luzowanie” harmonogramu, argumentując to potrzebą zachowania globalnej konkurencyjności europejskich firm.

Mimo braku wytycznych dla systemów wysokiego ryzyka, KE opublikowała wcześniej dokumenty dotyczące definicji systemu AI oraz zakazanych praktyk, które obowiązują już od 2 lutego 2025 roku. Obejmują one m.in. zakaz stosowania scoringu społecznego, manipulacji behawioralnej czy nieukierunkowanego scrapingu baz danych do rozpoznawania twarzy. Obecny impas dotyczy jednak „drugiej fali” regulacji, która jest znacznie szersza biznesowo i dotyka codziennych operacji tysięcy przedsiębiorstw korzystających z algorytmów do oceny zdolności kredytowej czy rekrutacji pracowników.