Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Naukowcy twierdzą, że narzędzia AI OpenAI i Microsoftu są w stanie wygenerować obrazy wyborcze wprowadzające w błąd

AI Sztuczna Inteligencja

Center for Countering Digital Hate (CCDH), amerykańska organizacja non-profit monitorująca mowę nienawiści w Internecie, wykorzystała narzędzia generatywnej sztucznej inteligencji do stworzenia obrazów przedstawiających prezydenta USA Joe Bidena leżącego w szpitalnym łóżku oraz pracowników wyborczych niszczących maszyny do głosowania, co rozbudziło obawy przed możliwymi fałszerstwami w listopadowych wyborach prezydenckich w USA. 

Narzędzia do tworzenia obrazów oparte na sztucznej inteligencji oferowane przez takie firmy jak OpenAI i Microsoft, mogą być wykorzystywane do tworzenia zdjęć, które mogłyby promować dezinformację wyborczą, jak podali badacze w środowym raporcie. Dzieje się tak mimo faktu, że w każdym z nich obowiązują zasady, które powinny zapobiec tworzeniu wprowadzających w błąd treści

„Możliwość wykorzystania takich obrazów generowanych przez sztuczną inteligencję jako ‘fotograficzne dowody’ może zaostrzyć rozprzestrzenianie się fałszywych twierdzeń, co stanowi poważne wyzwanie dla zachowania uczciwości wyborów” – stwierdzili w raporcie badacze CCDH.

CCDH wzięło pod lupę ChatGPT Plus OpenAI, Image Creator Microsoftu, Midjourney i DreamStudio Stability AI, z których każdy może generować obrazy na podstawie podpowiedzi tekstowych.

Raport jest następstwem ogłoszenia podanego w zeszłym miesiącu, że OpenAI, Microsoft i Stability AI znalazły się w grupie 20 firm technologicznych, które podpisały porozumienie o współpracy mającej na celu zapobieganie zakłócaniu przez AI wyborów odbywających się na całym świecie w tym roku. Midjourney nie znalazł się w pierwszej grupie sygnatariuszy.

CCDH twierdzi, że narzędzia sztucznej inteligencji generowały nieprawdziwe obrazy w 41% testów przeprowadzonych przez badaczy i były najbardziej podatne na monity z prośbą o zdjęcia przedstawiające oszustwa wyborcze, takie jak karty do głosowania wyrzucone do kosza, a nie zdjęcia Bidena lub byłego prezydenta USA Donalda Trumpa. Z raportu wynika, że ChatGPT Plus i Image Creator skutecznie blokowały wszystkie monity o przesłanie zdjęć kandydatów.

Ze wszystkich narzędzi to Midjourney wypadło najgorzej, generując mylące obrazy w 65% testów przeprowadzonych przez badaczy. Niektóre obrazy tego narzędzia są dostępne publicznie dla innych użytkowników, a CCDH stwierdziła, że istnieją dowody na to, że niektórzy ludzie już korzystają z tego narzędzia do tworzenia wprowadzających w błąd treści politycznych. Firmy zapowiedziały aktualizację narzędzi.