Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

OpenAI powołuje profesora AI Zico Koltera do zarządu

OpenAI powołał Zico Koltera, profesora i dyrektora wydziału uczenia maszynowego na Uniwersytecie Carnegie Mellon, do swojego zarządu.

Kolter, którego praca koncentruje się głównie na bezpieczeństwie sztucznej inteligencji, dołączy również do komisji ds. bezpieczeństwa zarządu OpenAI, wraz z dyrektorem generalnym Samem Altmanem i dyrektorami Bretem Taylorem, Adamem D’Angelo, Paulem Nakasone oraz Nicole Seligman0

Zadaniem komisji utworzonej w maju jest wydawanie decyzji dotyczących bezpieczeństwa i ochrony dla wszystkich projektów prowadzonych przez OpenAI.

Jak czytamy we wpisie na blogu firmy, w 2023 r. Kolter przyczynił się do opracowania metod automatycznej oceny bezpieczeństwa dużych modeli językowych, demonstrując potencjał obejścia istniejących zabezpieczeń modeli.