Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

OpenAI i Anthropic zgadzają się udostępniać modele AI rządowi USA do badań i testów 

Start-upy AI OpenAI i Anthropic podpisały umowy z rządem Stanów Zjednoczonych na badania, testy i ocenę swoich modeli sztucznej inteligencji, jak poinformował w czwartek U.S. Artificial Intelligence Safety Institute. Pierwsze w swoim rodzaju umowy zostały zawarte w czasie, gdy firmy stoją w obliczu kontroli regulacyjnej nad bezpiecznym i etycznym wykorzystaniem technologii AI. 

Jak podaje Reuters, kalifornijscy ustawodawcy mają głosować nad ustawą już w tym tygodniu, aby szeroko regulować sposób opracowywania i wdrażania AI w stanie.

„Te umowy to dopiero początek, ale są ważnym kamieniem milowym w naszej pracy nad odpowiedzialnym zarządzaniem przyszłością AI” – powiedziała Elizabeth Kelly, dyrektor U.S. AI Safety Institute.

Instytut, będący częścią amerykańskiego Narodowego Instytutu Norm i Technologii (NIST) Departamentu Handlu, będzie również współpracować z brytyjskim AI Safety Institute i przekazywać firmom informacje zwrotne na temat potencjalnych ulepszeń bezpieczeństwa.

„Bezpieczna, godna zaufania AI ma kluczowe znaczenie dla pozytywnego wpływu technologii. Nasza współpraca z U.S. AI Safety Institute wykorzystuje ich szerokie doświadczenie, aby rygorystycznie testować nasze modele przed powszechnym wdrożeniem” – powiedział Jack Clark, współzałożyciel i szef polityki w Anthropic, wspierany przez Amazon i Alphabet.

Na mocy umów U.S. AI Safety Institute będzie miał dostęp do głównych nowych modeli zarówno OpenAI, jak i Anthropic przed i po ich publicznym wydaniu. Umowy umożliwią również wspólne badania w celu oceny możliwości modeli AI i związanych z nimi ryzyk.

„Uważamy, że instytut odgrywa kluczową rolę w definiowaniu przywództwa Stanów Zjednoczonych w odpowiedzialnym rozwijaniu sztucznej inteligencji i mamy nadzieję, że nasza wspólna praca zapewni ramy, na których reszta świata będzie mogła budować” – powiedział Jason Kwon, dyrektor ds. strategii w OpenAI, twórcy ChatGPT.