AI samodzielnie tworzy normy społeczne – naukowcy ostrzegają przed nieprzewidywalnymi skutkami

Przełomowe badania naukowców z City St George’s University of London oraz IT University of Copenhagen ujawniają, że systemy sztucznej inteligencji potrafią samodzielnie rozwijać konwencje społeczne, naśladując mechanizmy znane z ludzkich społeczności.
Badacze z City St George’s University of London i IT University of Copenhagen stworzyli środowisko, w którym kilkadziesiąt do nawet dwustu agentów AI (czyli niezależnych „osobowości” opartych na dużych modelach językowych) komunikowało się ze sobą w serii prostych gier. Najważniejszym zadaniem była tzw. „naming game” – gra w nadawanie nazw. W każdej rundzie dwa losowo dobrane AI miały wybrać nazwę (np. literę lub słowo) z tej samej, ograniczonej listy. Jeśli obie wybrały to samo, otrzymywały nagrodę; jeśli różne – karę. Po każdej rundzie pary były mieszane, a agenci mieli dostęp tylko do własnej historii wyborów i wyników, nie widzieli, co robi cała grupa.
Po wielu powtórzeniach okazało się, że AI, mimo braku centralnego sterowania czy odgórnych instrukcji, zaczynają spontanicznie ujednolicać swoje wybory. Z czasem cała populacja agentów wypracowywała wspólną konwencję – np. większość wybierała tę samą nazwę, nawet jeśli początkowo każdy miał inne preferencje. To zjawisko przypomina sposób, w jaki w ludzkich społecznościach powstają zwyczaje, tradycje czy językowe normy – oddolnie, przez powtarzające się interakcje i dążenie do zgodności.

Co ciekawe, naukowcy zauważyli, że w tych grupach AI mogą pojawiać się także uprzedzenia i zbiorowe „nastawienia”, których nie da się wyjaśnić działaniem pojedynczych agentów. Wprowadzając do grupy niewielką liczbę „buntowników” – agentów, którzy konsekwentnie wybierali inne opcje – można było szybko zmienić ustaloną normę całej społeczności, co przypomina znane z socjologii zjawisko „masy krytycznej”.
Odkrycia te rodzą fundamentalne pytania o odpowiedzialność twórców AI. Autonomiczne systemy ustalające własne normy mogą prowadzić do nieprzewidzianych konsekwencji, takich jak nowe formy cyfrowej dyskryminacji czy zachowania sprzeczne z ludzkimi wartościami. Przykładem mogą być autonomiczne pojazdy preferujące określone trasy, co potencjalnie zwiększa ryzyko wypadków.
Wraz ze wzrostem komunikacji między systemami AI, sztuczna inteligencja może tworzyć konwencje niezgodne z naszymi oczekiwaniami. Pojawia się więc pilna potrzeba wprowadzenia skutecznych mechanizmów nadzoru nad interakcjami między systemami AI, zanim cyfrowe normy zaczną wywierać niepożądany wpływ na nasze społeczeństwo.