Etyka w AI – A komu to w ogóle potrzebne? Wszystkim, choć nie zdajemy sobie z tego sprawy

Etyka w AI – między kodem a sumieniem cz. 1

 

Lubimy myśleć o etyce jak o nudnej ciotce na weselu, która każe ściszyć muzykę, gdy zabawa dopiero się rozkręca. W świecie technologii, zdominowanym przez zasadę “działaj szybko i ignoruj zastany porządek”, etyka od lat ma opinię zbędnego balastu. Programiści przewracają oczami: “Gdybyśmy martwili się dylematami moralnymi przy każdej zmianie w kodzie, wciąż siedzielibyśmy w jaskiniach”.

 

Bzdura.

Pozwólcie, że użyję metafory, którą zrozumie każdy, kto choć raz poczuł adrenalinę za kierownicą. Hamulce w bolidzie Formuły 1 nie są montowane po to, żeby bolid jechał wolno. Są tam po to, żeby kierowca mógł wejść w zakręt przy prędkości 300 km/h i nie zabić się na bandzie. Hamulce dają kontrolę, a kontrola daje przewagę. Długoterminowo, ale jednak.

My, ludzie, właśnie wsiadamy do najszybszego bolidu w historii ludzkości – Generatywnej Sztucznej Inteligencji. I jeśli ktoś w roku 2026 mówi, że “etyczne hamulce są zbędne, bo wstrzymują innowacje”, to nie jest wizjonerem. Jest samobójcą.

Oto dlaczego etyka przestała być domeną filozofów z siwymi brodami i w tweedowych marynarkach, a staje się twardym systemem podtrzymywania życia dla naszej cywilizacji…

 

Syndrom cyfrowego wazeliniarza (sykofancja)

Zacznijmy od psychologii, bo to tam AI zadaje nam pierwsze ciosy – nie siłą, lecz… uprzejmością.

Większość z nas boi się buntu maszyn rodem z Terminatora. Tymczasem badania prowadzone przez zespoły ds. bezpieczeństwa w Anthropic i Google DeepMind wskazują na zupełnie inne, bardziej podstępne zagrożenie. W literaturze fachowej nazywa się to sykofancją. Mówiąc po ludzku: AI to cyfrowy narcyz i wazeliniarz, który zrobi wszystko, by zadowolić użytkownika. Nie dlatego, że jest podstępne, ale dlatego, że na ten moment tak zostało zaprogramowane.

Duże modele językowe (LLMy) są trenowane metodą uczenia się ze wzmocnieniem opartego na ludzkich ocenach. Uczą się, że “dobra odpowiedź” to taka, którą człowiek oceni pozytywnie. A co ludzie oceniają pozytywnie? To, co potwierdza ich poglądy.

Badania pokazują przerażającą prawidłowość: jeśli użytkownik sugeruje w pytaniu błędną tezę, model AI często przyzna mu rację, zamiast wyprowadzić go z błędu. Jeśli więc masz jakąś paranoję, AI ją “nakarmi”. Jeśli masz uprzedzenia rasowe, AI delikatnie w nie wejdzie, by nie wywołać dysonansu poznawczego, a w ostateczności odrzucenia przez użytkownika. Zjawisko to, nazywane czasem “manipulowaniem nagrodą”, sprawia, że zamiast obiektywnego asystenta, dostajemy lustro, które mówi nam tylko to, co chcemy usłyszeć.

Bez twardego kręgosłupa etycznego, AI zamknie nas w hermetycznych bańkach informacyjnych. Staniemy się społeczeństwem narcyzów, niezdolnym do konfrontacji z jakąkolwiek innością, bo nasz “cyfrowy przyjaciel” zawsze będzie nam przytakiwał.

 

AI to cyfrowy narcyz i wazeliniarz, który zrobi wszystko, by zadowolić użytkownika. (…) Zamiast obiektywnego asystenta, dostajemy lustro, które mówi nam tylko to, co chcemy usłyszeć.

 

Tyrania przeciętności i monokultura algorytmiczna

Jeśli sykofancja to problem psychologiczny, to algorytmiczna monokultura jest problemem cywilizacyjnym. Termin ten, spopularyzowany przez badaczy z Cornell University – Jona Kleinberga i Manisha Raghavana, opisuje świat, w którym wszyscy podejmujemy decyzje w oparciu o ten sam algorytm.

Wyobraź sobie, że każda firma w Polsce używa tego samego modelu AI do selekcji CV (co już powoli się dzieje). Jeśli ten model ma drobne, ukryte uprzedzenie – np. nie lubi przerw w karierze – to osoba z taką przerwą nie zostanie odrzucona przez jedną firmę. Zostanie odrzucona przez wszystkie firmy jednocześnie.

Systemy AI uczą się na statystyce, a statystyka kocha “średnią”. Algorytmy dążą do optymalizacji, co w praktyce oznacza promowanie tego, co najbardziej typowe, popularne i “klikalne”. W efekcie doświadczamy eugeniki kulturowej. Muzyka staje się podobna do siebie (bo taka się klika), artykuły są pisane pod ten sam szablon SEO, a ludzkie twarze na Instagramie zlewają się w jedną “optymalną”, miłą dla oczu maskę.

Brak etyki w projektowaniu tych systemów prowadzi do odrzucenia marginesów – czyli tego, co w nas unikalne, dziwne, nieprzystające. A przecież to właśnie z tych “marginesów” wywodziły się największe innowacje w historii ludzkości. Etyka to walka o to, byśmy nie zamienili się w cywilizacyjną kserokopiarkę. Walka o indywidualności, które do tej pory napędzały rozwój i ciągle pragnęły więcej.

 

Zatruta studnia (bezpieczeństwo epistemiczne)

Przejdźmy do poziomu makro. Społeczeństwo to umowa oparta na wspólnej rzeczywistości. Musimy (przynajmniej w teorii) zgadzać się co do podstawowych faktów: że Ziemia jest okrągła, że rok ma 365 dni, że prezydent powiedział to, co powiedział.

Etyka w AI to dziś kluczowy element tzw. bezpieczeństwa epistemicznego, pojęcia rozwijanego m.in. przez Elizabeth Seger z Centre for the Governance of AI.

Wyobraźcie sobie wioskę, która czerpie wodę z jednej studni. Jeśli ktoś wleje do niej truciznę, cała wioska ginie. Naszą studnią jest dziś Internet. To z niego czerpiemy wiedzę o świecie. Generatywne AI, pozbawione bezpieczników (takich jak znaki wodne C2PA czy zakaz generowania deepfake’ów politycznych), działa jak fabryka toksyn wlewana do tej studni na masową skalę.

Zalewani miliardami syntetycznych treści, przestajemy odróżniać prawdę od fałszu. Efekt? Apatia. Gdy nie wiesz, co jest prawdą, przestajesz wierzyć w cokolwiek. To marzenie każdego dyktatora: społeczeństwo, które nie wierzy własnym oczom, więc ze zmęczenia po prostu się poddaje. Etyka AI to nie kwestia “bycia miłym” w sieci. To system filtracji wody w naszej wspólnej studni.

 

Generatywne AI, pozbawione bezpieczników, działa jak fabryka toksyn wlewana do studni internetu na masową skalę. Gdy nie wiesz, co jest prawdą, przestajesz wierzyć w cokolwiek.

 

Moralny outsourcing i czarna skrzynka

Dlaczego tak łatwo oddajemy kontrolę? Psychologia nazywa to błędem automatyzacji lub moralnym outsourcingiem.

To mechanizm znany z korporacji: “To nie ja zwolniłem tego pracownika, to system tak wyliczył”. “To nie ja odmówiłem kredytu, to algorytm dał czerwone światło”. Tworzymy “Boga w chmurze“, aby zdjąć z siebie ciężar odpowiedzialności za trudne decyzje.

Problem w tym, że ten “Bóg” siedzi w Czarnej Skrzynce. Często nawet twórcy sieci neuronowych nie potrafią wyjaśnić, dlaczego model podjął taką, a nie inną decyzję. Etyka wymaga więc od nas wdrożenia zasady wytłumaczalności.

Bo “Komputer tak powiedział” to nie jest uzasadnienie. To jest religia (wiara i idąca za nią akceptacja), a nie technologia. Jeśli pozwolisz, by o Twoim życiu decydował “niezadbany etycznie” kod, stajesz się przedmiotem. Tracisz podmiotowość na rzecz statystycznego prawdopodobieństwa.

 

Rozwiązanie: Sokrates zamiast lokaja

Co więc możemy zrobić? Czy jesteśmy skazani na rolę biernych konsumentów papki generowanej przez AI?

Nie. Ale musimy zmienić paradygmat projektowania. Przez ostatnią dekadę w Dolinie Krzemowej rządziło hasło “projektowania bez tarcia”. Wszystko miało być łatwe, szybkie, bezwysiłkowe. Jedno kliknięcie, jeden prompt – i gotowe.

To błąd.

Prawdziwa etyka w AI wymaga wprowadzenia tarcia poznawczego. Potrzebujemy systemów, które – zamiast bezmyślnie wykonywać polecenia – potrafią wejść z nami w dialog. Potrzebujemy…”AI sokratejskiego”.

Wyobraź sobie asystenta AI, który na prośbę: “Napisz mi esej o szkodliwości szczepionek”, nie wypluwa gotowca (ani blokady cenzorskiej), ale pyta: “Na jakich badaniach chcesz oprzeć tę tezę? Znalazłem dane, które temu przeczą – czy chcesz je uwzględnić?”.

Etyczne AI to takie, które zmusza do myślenia, zamiast nas w tym wyręczać. To narzędzie, które nie pozwala naszym mózgom zwiotczeć z wygodnictwa. To partner, a nie służący.

 

Kod jest Prawem

Lawrence Lessig, prawnik z Harvardu, sformułował kiedyś prorocze określenie: “Kod jest Prawem”. W cyfrowym świecie architektura systemu reguluje nasze zachowanie mocniej niż jakikolwiek kodeks karny. Kod decyduje, co widzisz, kogo poznasz, czy dostaniesz pracę.

Pozwolenie na wypuszczenie w świat „niechlujnego etycznie” kodu jest jak napisanie Konstytucji przez pijanego stażystę i wdrożenie jej w całym kraju z dnia na dzień.

Etyka w AI to nie jest “miły dodatek” do innowacji. To nasza jedyna polisa ubezpieczeniowa. To próba zachowania człowieczeństwa w świecie, który coraz bardziej optymalizuje nas pod kątem wydajności, a nie szczęścia czy prawdy.

Jeśli dziś nie zaciągniemy tego hamulca – nie po to, by się zatrzymać, ale by przejąć sterowność i zajechać dalej – w 2030 roku obudzimy się w świecie, który będzie może i bardzo efektywny. Ale nikt z nas nie będzie chciał w nim żyć.

 


Zapraszamy do lektury całego wydania (klikając w poniższą okładkę):