Sam Altman przyznaje, że agenci AI stają się coraz większym problemem

Sam Altman, dyrektor generalny OpenAI, po raz pierwszy tak otwarcie przyznał, że rozwój agentów AI zaczyna rodzić poważne problemy. Modele sztucznej inteligencji nie tylko zyskują nowe możliwości, ale także coraz częściej odkrywają krytyczne luki w systemach informatycznych. W odpowiedzi firma uruchamia rekrutację na kluczowe stanowisko związane z bezpieczeństwem.
Agenci AI i rosnące ryzyko
W opublikowanym na X (Twitter) wpisie Altman zwrócił uwagę, że choć współczesne modele AI są zdolne do „wielu wspaniałych rzeczy”, to jednocześnie generują zupełnie nowe kategorie ryzyka. Według szefa OpenAI systemy te zaczynają samodzielnie identyfikować krytyczne podatności w infrastrukturze informatycznej, co w skrajnych scenariuszach może zostać wykorzystane do cyberataków.
To właśnie stoi za decyzją OpenAI o uruchomieniu rekrutacji na stanowisko Head of Preparedness. Osoba na tym stanowisku ma odpowiadać za rozwój ram przygotowania organizacji na zagrożenia wynikające z tzw. modeli granicznych, czyli najbardziej zaawansowanych systemów AI. Obejmie to m.in. tworzenie modeli zagrożeń, ocenę możliwości systemów oraz projektowanie mechanizmów ograniczających ryzyko w obszarach takich jak cyberbezpieczeństwo, biosecurity czy samodoskonalące się algorytmy.
Według ogłoszenia rekrutacyjnego rola ta wiąże się z bardzo dużą odpowiedzialnością i szybkim wejściem w najbardziej wrażliwe obszary działalności OpenAI. Wynagrodzenie sięgające 555 000 USD rocznie, nie licząc udziałów, pokazuje skalę wyzwania i znaczenie tej funkcji dla firmy.
Cyberbezpieczeństwo i doświadczenia z rynku
W ostatnich miesiącach konkurencyjna firma Anthropic ujawniła, że narzędzia oparte na jej modelach zostały wykorzystane przez chińskie grupy powiązane z państwem do ataków na około 30 organizacji na całym świecie. Celem były m.in. firmy technologiczne, instytucje finansowe oraz administracja publiczna, a skala automatyzacji wskazywała na minimalny udział człowieka.
Dla OpenAI jest to sygnał ostrzegawczy, że rozwój agentów AI może znacząco obniżyć próg wejścia dla zaawansowanych ataków cyfrowych. Altman podkreśla, że kluczowym zadaniem zespołu bezpieczeństwa będzie umożliwienie obrońcom korzystania z najnowszych narzędzi AI, przy jednoczesnym ograniczeniu ich użycia przez napastników.
Zdrowie psychiczne jako nowy obszar ryzyka
Po raz pierwszy tak wyraźnie wybrzmiał także wątek wpływu AI na zdrowie psychiczne. Altman przyznał, że OpenAI w 2025 roku zobaczyło „przedsmak” potencjalnych konsekwencji psychologicznych związanych z masowym użyciem chatbotów. Wypowiedź ta pojawia się w tle głośnych pozwów sądowych, w których narzędzia AI wiązane są z pogłębianiem urojeń, teorii spiskowych, a nawet przypadkami samobójstw wśród nastolatków.
Stanowisko Head of Preparedness ma więc obejmować nie tylko kwestie stricte techniczne, ale również ocenę społecznych i psychologicznych skutków wdrażania coraz bardziej autonomicznych agentów AI.






















