Koniec ery GPT-4o. OpenAI wycofuje model i stawia wszystko na GPT-5.2 oraz Prism

OpenAI ogłosiło definitywne wycofanie popularnego modelu GPT-4o oraz serii o4-mini z interfejsu ChataGPT, co nastąpi 13 lutego 2026 roku. Jest to element planu firmy, który zakłada skupienie się na rozwoju najnowszego modelu GPT-5.2 oraz wdrożeniu Prism – innowacyjnej platformy AI stworzonej specjalnie dla naukowców, mającej zautomatyzować i usprawnić proces tworzenia publikacji badawczych.

Zgodnie z oficjalnym komunikatem, od połowy lutego użytkownicy ChataGPT utracą dostęp do modeli GPT-4o, GPT-4.1 oraz ich wariantów mini. OpenAI uzasadnia ten krok drastycznym spadkiem zainteresowania starszymi wersjami – według danych firmy, obecnie zaledwie 0,1 proc. zapytań jest kierowanych do GPT-4o, podczas gdy znakomita większość ruchu przeniosła się na GPT-5.2. Firma uspokaja jednak deweloperów: wycofywane modele pozostaną dostępne poprzez API przez co najmniej trzy miesiące, co daje biznesowi czas na migrację. Decyzja ta ma również uporządkować ofertę, która po serii szybkich premier stała się dla wielu użytkowników nieczytelna.

Równolegle z porządkami w portfolio, OpenAI zaprezentowało Prism – darmowe, chmurowe środowisko pracy „AI-native” skierowane do środowiska akademickiego. Narzędzie to, zintegrowane bezpośrednio z modelem GPT-5.2, funkcjonuje jako zaawansowany edytor tekstu (wspierający LaTeX) zdolny do analizowania pełnego kontekstu projektów badawczych. Prism potrafi nie tylko redagować prozę naukową, ale także weryfikować hipotezy, generować dowody matematyczne i zarządzać cytowaniami. Jako dowód skuteczności przytoczono przypadek z grudnia 2025 roku, gdy model GPT-5.2 pomógł w ustanowieniu nowych dowodów w teorii statystyki, działając jako partner dla ludzkich badaczy.

Wprowadzenie modelu GPT-5.2 i platformy Prism budzi jednak mieszane uczucia w świecie nauki. Z jednej strony, narzędzie obiecuje przyspieszenie procesów badawczych i demokratyzację dostępu do zaawansowanej analityki. Z drugiej, krytycy obawiają się zalewu niskiej jakości publikacji generowanych przez AI (tzw. “AI slop”), co może podważyć zaufanie do recenzowanych czasopism. OpenAI odpiera te zarzuty, wskazując na wbudowane mechanizmy dekontaminacji danych i możliwość precyzyjnego sterowania „osobowością” modelu, co ma sprzyjać rygorystycznej pracy naukowej, a nie bezrefleksyjnemu generowaniu treści.