Naukowcy twierdzą, że narzędzia AI OpenAI i Microsoftu są w stanie wygenerować obrazy wyborcze wprowadzające w błąd

Center for Countering Digital Hate (CCDH), amerykańska organizacja non-profit monitorująca mowę nienawiści w Internecie, wykorzystała narzędzia generatywnej sztucznej inteligencji do stworzenia obrazów przedstawiających prezydenta USA Joe Bidena leżącego w szpitalnym łóżku oraz pracowników wyborczych niszczących maszyny do głosowania, co rozbudziło obawy przed możliwymi fałszerstwami w listopadowych wyborach prezydenckich w USA. 

Narzędzia do tworzenia obrazów oparte na sztucznej inteligencji oferowane przez takie firmy jak OpenAI i Microsoft, mogą być wykorzystywane do tworzenia zdjęć, które mogłyby promować dezinformację wyborczą, jak podali badacze w środowym raporcie. Dzieje się tak mimo faktu, że w każdym z nich obowiązują zasady, które powinny zapobiec tworzeniu wprowadzających w błąd treści

„Możliwość wykorzystania takich obrazów generowanych przez sztuczną inteligencję jako ‘fotograficzne dowody’ może zaostrzyć rozprzestrzenianie się fałszywych twierdzeń, co stanowi poważne wyzwanie dla zachowania uczciwości wyborów” – stwierdzili w raporcie badacze CCDH.

CCDH wzięło pod lupę ChatGPT Plus OpenAI, Image Creator Microsoftu, Midjourney i DreamStudio Stability AI, z których każdy może generować obrazy na podstawie podpowiedzi tekstowych.

Raport jest następstwem ogłoszenia podanego w zeszłym miesiącu, że OpenAI, Microsoft i Stability AI znalazły się w grupie 20 firm technologicznych, które podpisały porozumienie o współpracy mającej na celu zapobieganie zakłócaniu przez AI wyborów odbywających się na całym świecie w tym roku. Midjourney nie znalazł się w pierwszej grupie sygnatariuszy.

CCDH twierdzi, że narzędzia sztucznej inteligencji generowały nieprawdziwe obrazy w 41% testów przeprowadzonych przez badaczy i były najbardziej podatne na monity z prośbą o zdjęcia przedstawiające oszustwa wyborcze, takie jak karty do głosowania wyrzucone do kosza, a nie zdjęcia Bidena lub byłego prezydenta USA Donalda Trumpa. Z raportu wynika, że ChatGPT Plus i Image Creator skutecznie blokowały wszystkie monity o przesłanie zdjęć kandydatów.

Ze wszystkich narzędzi to Midjourney wypadło najgorzej, generując mylące obrazy w 65% testów przeprowadzonych przez badaczy. Niektóre obrazy tego narzędzia są dostępne publicznie dla innych użytkowników, a CCDH stwierdziła, że istnieją dowody na to, że niektórzy ludzie już korzystają z tego narzędzia do tworzenia wprowadzających w błąd treści politycznych. Firmy zapowiedziały aktualizację narzędzi.