Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Były lider ds. bezpieczeństwa OpenAI, Jan Leike, dołącza do konkurencyjnego start-upu AI Anthropic

Jan Leike, jeden z głównych badaczy bezpieczeństwa w OpenAI, który zrezygnował z firmy zajmującej się sztuczną inteligencją na początku tego miesiąca, powiedział we wtorek, że dołączył do konkurencyjnego start-upu AI Anthropic.

Leike ogłosił swoją rezygnację z OpenAI 15 maja, na kilka dni przed rozwiązaniem przez firmę grupy superalignment, którą współkierował. Zespół ten, utworzony w 2023 r., koncentrował się na długoterminowych zagrożeniach związanych ze sztuczną inteligencją. Współzałożyciel OpenAI Ilya Sutskever ogłosił swoje odejście w poście na X 14 maja.

„Cieszę się, że mogę dołączyć do @AnthropicAI, aby kontynuować misję superalignment – napisał Leike na X we wtorek. – Mój nowy zespół będzie pracował nad skalowalnym nadzorem, generalizacją od słabego do silnego i zautomatyzowanymi badaniami nad wyrównaniem”.

Leike dodał też:

„Odejście od tej pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem, ponieważ musimy pilnie dowiedzieć się, jak sterować i kontrolować systemy AI znacznie mądrzejsze od nas”.

Bezpieczeństwo sztucznej inteligencji szybko zyskało na znaczeniu w całym sektorze technologicznym, odkąd OpenAI wprowadziła ChatGPT pod koniec 2022 r., zapoczątkowując boom na produkty i inwestycje związane z generatywną sztuczną inteligencją. Niektórzy w branży wyrazili zaniepokojenie, że firmy zbyt szybko udostępniają publicznie potężne produkty AI bez odpowiedniego uwzględnienia potencjalnych szkód społecznych.

OpenAI poinformowało we wtorek, że utworzyło nową komisję ds. bezpieczeństwa i ochrony, zarządzaną przez kierownictwo wyższego szczebla, w tym dyrektora generalnego Sama Altmana. Komitet będzie rekomendował zarządowi firmy „decyzje dotyczące bezpieczeństwa i ochrony projektów i operacji OpenAI”.