Biały Dom rozważa wprowadzenie rządowej kontroli nowych modeli AI. AI Act po amerykańsku?

Jak donosi Reuters, Biały Dom rozważa objęcie nowych modeli sztucznej inteligencji państwowym nadzorem. Specjalna grupa robocza ma opracować formalne procedury weryfikacji technologii przed ich rynkowym debiutem. Decyzja ta oznacza odejście od dotychczasowej polityki braku ingerencji w rozwój sektora IT, co wymusi na korporacjach dostosowanie do nowych wymogów federalnych.

 

Mechanizm kontroli i bezpieczeństwo narodowe

Głównym celem planowanych regulacji ma być prewencyjna ocena zagrożeń generowanych przez zaawansowane systemy obliczeniowe. Bezpośrednim powodem podjęcia prac są ostrzeżenia ekspertów dotyczące modelu Mythos opracowanego przez firmę Anthropic. Narzędzie to wykazuje zdolności do automatycznego wyszukiwania i wykorzystywania luk w kodzie. Rząd dąży do stworzenia mechanizmów audytu dla modeli o wysokim potencjale destrukcyjnym. Nowe wytyczne mają uniemożliwić debiut rynkowy technologii, które mogą zostać wykorzystane do zmasowanych cyberataków, co chroni infrastrukturę państwa.

 

 

 Odwrócenie kursu wobec sektora technologicznego

Przygotowywany dekret stanowi istotną zmianę stanowiska prezydenta Donalda Trumpa. Wcześniej administracja promowała deregulację i eksport AI w celu utrzymania przewagi nad Chinami. Chociaż Biały Dom oficjalnie nazywa dyskusje o dekretach spekulacjami, urzędnicy potwierdzają trwające analizy procedur nadzorczych. Zaraz po objęciu urzędu Trump uchylił rozporządzenie Joe Bidena, które nakładało na firmy obowiązek dzielenia się wynikami testów bezpieczeństwa. Obecne kroki wskazują, że ryzyko związane z autonomicznym kodowaniem wymusza powrót do państwowej kurateli nad innowacjami.

 

Planowane przez Biały Dom wprowadzenie rządowej weryfikacji nowych modeli AI oznacza odejście od dotychczasowej polityki braku ingerencji na rzecz prewencyjnej kontroli technologii o wysokim potencjale destrukcyjnym w obszarze cyberbezpieczeństwa.

 

Implikacje dla sektora i inwestycji

Wprowadzenie obowiązkowej certyfikacji zmieni strukturę wydatków operacyjnych (OPEX) w laboratoriach badawczych. Wydłużone procesy weryfikacyjne opóźnią monetyzację produktów, co wpłynie na prognozowany zwrot z inwestycji (ROI). Przedsiębiorstwa technologiczne będą zmuszone do implementacji procedur zgodności już na wczesnym etapie projektowania architektury systemów. Konkurencja rynkowa przesunie się w stronę rozwiązań o niskim profilu ryzyka regulacyjnego. Stabilność prawna wynikająca z federalnych wytycznych może jednak ułatwić globalną ekspansję sprawdzonych narzędzi, minimalizując obawy o bezpieczeństwo cyfrowe.

 

Jednym etyka umyka, drugi się o nią potyka… Dlaczego każdy region reguluje AI po swojemu i co chce na tym ugrać?