Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Weryfikacja toższamości dla zaawansowanych modeli od OpenAI? Firma szykuje taki krok

OpenAI

OpenAI szykuje nowy system weryfikacji firm, który zmusi organizacje do potwierdzenia swojej tożsamości, zanim dostaną dostęp do najbardziej zaawansowanych modeli AI. Chodzi głównie o bezpieczeństwo i walkę z nadużyciami.

Nowy proces nazwany jako „Verified Organization” będzie wymagał przedstawienia oficjalnego dokumentu tożsamości wydanego przez rząd (ale tylko z krajów, które obsługują API OpenAI). Co ciekawe, każdy dokument będzie można wykorzystać do weryfikacji tylko jednej organizacji w ciągu trzech miesięcy. Wygląda na to, że nie każda firma przejdzie ten proces – OpenAI najwyraźniej chce bardzo selektywnie udostępniać swoje najlepsze technologie. Firma tłumaczy to dość otwarcie:

„Niewielka grupa deweloperów świadomie używa naszego API wbrew naszym zasadom” – czytamy na stronie pomocy OpenAI.

Co ważne, chodzi tu także o ochronę własności intelektualnej. Bloomberg donosi, że OpenAI bada przypadek z końca ubiegłego roku, w którym grupa powiązana z chińskim laboratorium DeepSeek miała wykraść mnóstwo danych przez API – prawdopodobnie po to, aby trenować własne modele.

Krok ten pasuje do ogólnego trendu zwiększania zabezpieczeń wokół zaawansowanej sztucznej inteligencji. OpenAI już kilka razy informowało o swoich działaniach przeciwko nadużyciom, w tym przeciwko grupom podobno powiązanymi z Koreą Północną. Zresztą, to nie pierwszy raz, kiedy OpenAI ogranicza dostęp – już w 2023 roku firma całkowicie zablokowała swoje usługi w Chinach.

Pytanie tylko, czy wszystkie te nowe zabezpieczenia nie utrudnią dostępu do AI mniejszym firmom i niezależnym programistom. Zobaczymy, jak ta nowa polityka wpłynie na cały ekosystem AI.