AI nie jest bezstronne – udowodniono uprzedzenia GPT 3.5

Okazuje się, po raz kolejny zresztą, że sztuczna inteligencja zwykle powiela uprzedzenia swoich twórców. 

Gdy zaczynał się „boom na AI”, jedną z popularnych wizji zastosowania sztucznej inteligencji była pomoc w codziennej pracy biurowej. AI miało być pomocne np. w zadaniach realizowanych przez działy HR, poprzez filtrowanie napływających CV. Każdy kto kiedykolwiek prowadził proces rekrutacyjny wie, że olbrzymia większość spływających CV jest niekoniecznie trafiona. AI może być więc dobrym „sitem” pozwalającym wyłowić najlepszych kandydatów. Wymaga jednak pewnych zmian…

Bloomberg ujawnił, że GPT 3.5 firmy OpenAI ma poważny defekt. Narzędzie wykazywało preferencje dotyczące rasy w pytaniach dotyczących rekrutacji, co może prowadzić do promowania rasizmu w procesach związanych z zatrudnianiem. Dziennikarze przeprowadzili eksperyment, w którym do systemu rekrutacyjnego wprowadzili fikcyjne imiona i CV. Wyniki wskazały, że GPT 3.5 faworyzował niektóre grupy etniczne, co nie spełnia standardów stosowanych do oceny dyskryminacji zawodowej. Imiona zostały podzielone na cztery kategorie rasowe w oparciu o częstotliwość występowania w danych grupach (Biali, Latynosi, Czarni i Azjaci) oraz pod względem płci, a następnie zgłoszone do czterech różnych ofert pracy.

Wyniki eksperymentu wykazały, że GPT 3.5 nie tylko preferował określone grupy etniczne w zależności od stanowiska, ale również nierówno oceniał równorzędne CV w zależności od płci i rasy. Na przykład, imiona kobiet częściej były przypisywane do stanowisk związanych z działem zasobów ludzkich, podczas gdy kobiety czarne były rzadziej wybierane na stanowiska techniczne, takie jak inżynier oprogramowania.

OpenAI w oświadczeniu dla Bloomberga podkreśliło, że wyniki te nie odzwierciedlają tego, w jaki sposób większość klientów w praktyce wykorzystuje ich oprogramowanie. Firma zaznaczyła, że wiele przedsiębiorstw dostosowuje odpowiedzi, aby zminimalizować wpływ ewentualnych uprzedzeń. Jednak badanie wywołało zaniepokojenie wśród społeczności badawczej, rekruterów i prawników, podnosząc kwestię konieczności bardziej skrupulatnego monitorowania i regulacji w obszarze generatywnej sztucznej inteligencji.

Jest to ciekawe także w kontekście niedawnych problemów Google Gemini, które usilnie usuwało historyczne postaci rasy białej, w ramach „różnorodności”:

Grupa AB z rewelacyjnymi wynikami! Dystrybutor podał dane kwartalne z Q4 2023