Coraz większy exodus z X (Twittera) to ostrzeżenie. Jeśli nie “nauczymy” AI etyki, nie będzie dokąd uciec

Rafał Pikuła wybrał LinkedIna i Facebooka, by ogłosić ostateczne pożegnanie z platformą X. To symboliczny wybór kanałów komunikacji – powrót do miejsc, gdzie wciąż możliwy jest dialog, w kontrze do algorytmicznego chaosu, który zapanował ostatnio w serwisie Elona Muska.
Decyzja ta ma swoją wagę, bo Pikuła nie jest przypadkowym użytkownikiem. To dziennikarz technologiczny, publicysta i szef magazynu Spider’s Web+, który od lat bada wpływ cyfryzacji na nasze życie. Jest autorem wnikliwych analiz o „depresji technologicznej” i pułapkach algorytmów, publikowanych także na łamach Gazety Wyborczej. Kiedy więc profesjonalista o takim dorobku, zajmujący się na co dzień analizą mediów i technologii nazywa obecny stan platformy „ściekiem”, w którym tonie ludzka godność, stawia diagnozę wykraczającą daleko poza jedno medium społecznościowe.
Kto jeszcze “zgasił światło” na X?
Pikuła dołączył do coraz dłuższej listy instytucji i osób, które w ostatnich miesiącach powiedziały „dość”. Jesteśmy świadkami X-odusu – masowej migracji z miejsca, które miało być „globalnym rynkiem miejskim”, a stało się poligonem dezinformacji. Tylko w ostatnim czasie z platformy oficjalnie wycofali się:
- The Guardian – jeden z najważniejszych brytyjskich dzienników, argumentując, że korzyści z obecności na X nie równoważą już toksyczności i promowania skrajnie prawicowych teorii spiskowych.
- La Vanguardia – czołowy dziennik hiszpański, który nazwał X „siecią dezinformacji”.
- Europejska Federacja Dziennikarzy (EFJ) – zapowiedziała całkowite wycofanie się z platformy od 20 stycznia 2025 r., uznając ją za środowisko wrogie dla rzetelnego dziennikarstwa.
- Ikony kultury – m.in. Jamie Lee Curtis, Stephen King (który zawiesił aktywność, pisząc o „toksycznej atmosferze”), czy Festiwal Filmowy w Berlinie (Berlinale).
Wszyscy oni zauważyli to samo: algorytm, który promuje emocje kosztem faktów i konflikt kosztem dialogu, przestaje być narzędziem komunikacji. Staje się narzędziem podziałów oraz bronią.
X jako poligon doświadczalny dla AI
Patrząc na upadek standardów na X, musimy zadać sobie pytanie ważniejsze niż tylko „gdzie teraz założyć konto?”. Musimy zapytać raczej: Co to oznacza dla rozpędzającej się ery Sztucznej Inteligencji? Media społecznościowe były wersją beta. Algorytmy rekomendacyjne, które napędzały Twittera, były prostymi formami AI, optymalizowanymi pod jeden cel: zaangażowanie. Skutek widzimy dzisiaj – radykalizacja, bańki informacyjne i exodus twórców…
Dziś stoimy u progu wdrożenia systemów AI o nieporównywalnie większej mocy. Modeli, które będą nie tylko rekomendować treści, ale podejmować decyzje i pośredniczyć w naszym kontakcie ze światem. Wniosek jest brutalny: Jeśli nie wbudujemy etyki w fundamenty nadchodzących systemów AI – tak zwane „Safety by Design” – czeka nas powtórka z X, tylko na skalę cywilizacyjną. Różnica polega na tym, że z Twittera można uciec na LinkedIn. Z rzeczywistości zdominowanej przez nieetyczną, wszechobecną Sztuczną Inteligencję uciec się nie da. AI puszczona „samopas”, bez bezpieczników etycznych, będzie wszędzie – w naszej pracy, edukacji, urzędach i sądach.
Pułapka obiektywizmu
Sprawa nie jest jednak prosta. Łatwo powiedzieć: „AI musi być etyczna”. Trudniej odpowiedzieć na pytanie: „Czyja to ma być etyka?”.
Algorytmy są karmione danymi stworzonymi przez ludzi, a my nie jesteśmy obiektywni. Jesteśmy sumą naszych uprzedzeń i kultur. Próba stworzenia „neutralnego” AI to jak stąpanie po cienkim lodzie. Widać to wyraźnie w sporze o platformę X – Elon Musk twierdzi, że “uwolnił” algorytm spod dyktanda poprawności politycznej, podczas gdy krytycy, w tym instytucje badawcze, alarmują, że w rzeczywistości go zepsuł, promując nienawiść pod płaszczykiem wolności słowa. Jak zatem zaprogramować maszynę, by była sprawiedliwa, ale nie stronnicza? To wyzwania, które dla wielu inżynierów są nienaturalne, bo wymagają kompetencji humanistycznych.
Ale trudność zadania absolutnie nie zwalnia nas z tego obowiązku. Przykład X pokazuje, co się dzieje, gdy technologia traci „ludzki pierwiastek” i nadzór.
Dlatego etyka w AI nie jest „miękkim dodatkiem”. Jest twardym wymogiem bezpieczeństwa. Musimy wymagać od firm technologicznych transparentności i odpowiedzialności za kod, który wypuszczają w świat. Bo jeśli tego nie zrobimy, wkrótce wszyscy będziemy szukać przycisku „Usuń konto” – tylko że następnym razem może być tak, że nawet go nie znajdziemy…





















