OpenAI i Anthropic zgadzają się udostępniać modele AI rządowi USA do badań i testów 

Start-upy AI OpenAI i Anthropic podpisały umowy z rządem Stanów Zjednoczonych na badania, testy i ocenę swoich modeli sztucznej inteligencji, jak poinformował w czwartek U.S. Artificial Intelligence Safety Institute. Pierwsze w swoim rodzaju umowy zostały zawarte w czasie, gdy firmy stoją w obliczu kontroli regulacyjnej nad bezpiecznym i etycznym wykorzystaniem technologii AI. 

Jak podaje Reuters, kalifornijscy ustawodawcy mają głosować nad ustawą już w tym tygodniu, aby szeroko regulować sposób opracowywania i wdrażania AI w stanie.

„Te umowy to dopiero początek, ale są ważnym kamieniem milowym w naszej pracy nad odpowiedzialnym zarządzaniem przyszłością AI” – powiedziała Elizabeth Kelly, dyrektor U.S. AI Safety Institute.

Instytut, będący częścią amerykańskiego Narodowego Instytutu Norm i Technologii (NIST) Departamentu Handlu, będzie również współpracować z brytyjskim AI Safety Institute i przekazywać firmom informacje zwrotne na temat potencjalnych ulepszeń bezpieczeństwa.

„Bezpieczna, godna zaufania AI ma kluczowe znaczenie dla pozytywnego wpływu technologii. Nasza współpraca z U.S. AI Safety Institute wykorzystuje ich szerokie doświadczenie, aby rygorystycznie testować nasze modele przed powszechnym wdrożeniem” – powiedział Jack Clark, współzałożyciel i szef polityki w Anthropic, wspierany przez Amazon i Alphabet.

Na mocy umów U.S. AI Safety Institute będzie miał dostęp do głównych nowych modeli zarówno OpenAI, jak i Anthropic przed i po ich publicznym wydaniu. Umowy umożliwią również wspólne badania w celu oceny możliwości modeli AI i związanych z nimi ryzyk.

„Uważamy, że instytut odgrywa kluczową rolę w definiowaniu przywództwa Stanów Zjednoczonych w odpowiedzialnym rozwijaniu sztucznej inteligencji i mamy nadzieję, że nasza wspólna praca zapewni ramy, na których reszta świata będzie mogła budować” – powiedział Jason Kwon, dyrektor ds. strategii w OpenAI, twórcy ChatGPT.