Były lider ds. bezpieczeństwa OpenAI, Jan Leike, dołącza do konkurencyjnego start-upu AI Anthropic

Jan Leike, jeden z głównych badaczy bezpieczeństwa w OpenAI, który zrezygnował z firmy zajmującej się sztuczną inteligencją na początku tego miesiąca, powiedział we wtorek, że dołączył do konkurencyjnego start-upu AI Anthropic.

Leike ogłosił swoją rezygnację z OpenAI 15 maja, na kilka dni przed rozwiązaniem przez firmę grupy superalignment, którą współkierował. Zespół ten, utworzony w 2023 r., koncentrował się na długoterminowych zagrożeniach związanych ze sztuczną inteligencją. Współzałożyciel OpenAI Ilya Sutskever ogłosił swoje odejście w poście na X 14 maja.

„Cieszę się, że mogę dołączyć do @AnthropicAI, aby kontynuować misję superalignment – napisał Leike na X we wtorek. – Mój nowy zespół będzie pracował nad skalowalnym nadzorem, generalizacją od słabego do silnego i zautomatyzowanymi badaniami nad wyrównaniem”.

Leike dodał też:

„Odejście od tej pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem, ponieważ musimy pilnie dowiedzieć się, jak sterować i kontrolować systemy AI znacznie mądrzejsze od nas”.

Bezpieczeństwo sztucznej inteligencji szybko zyskało na znaczeniu w całym sektorze technologicznym, odkąd OpenAI wprowadziła ChatGPT pod koniec 2022 r., zapoczątkowując boom na produkty i inwestycje związane z generatywną sztuczną inteligencją. Niektórzy w branży wyrazili zaniepokojenie, że firmy zbyt szybko udostępniają publicznie potężne produkty AI bez odpowiedniego uwzględnienia potencjalnych szkód społecznych.

OpenAI poinformowało we wtorek, że utworzyło nową komisję ds. bezpieczeństwa i ochrony, zarządzaną przez kierownictwo wyższego szczebla, w tym dyrektora generalnego Sama Altmana. Komitet będzie rekomendował zarządowi firmy „decyzje dotyczące bezpieczeństwa i ochrony projektów i operacji OpenAI”.