Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

OpenAI, Meta i inni giganci technologiczni podpisują zobowiązanie do walki z ingerencją sztucznej inteligencji w wybory

Grupa 20 firm technologicznych ogłosiła w piątek, że zgodziła się współpracować, aby zapobiec ingerencji szkodliwych treści sztucznej inteligencji w tegoroczne wybory na całym świecie.

Szybki rozwój sztucznej inteligencji, która może tworzyć tekst, obrazy i wideo w ciągu kilku sekund dzięki podpowiedziom, zwiększył obawy, że nowa technologia może zostać wykorzystana do wpłynięcia na główne wybory w tym roku, kiedy ponad połowa światowej populacji ma udać się do urn.

Sygnatariuszami porozumienia technologicznego, które zostało ogłoszone na Monachijskiej Konferencji Bezpieczeństwa, są firmy budujące generatywne modele sztucznej inteligencji wykorzystywane do tworzenia treści, w tym OpenAI, Microsoft i Adobe. Innymi członkami grupy są platformy mediów społecznościowych, które staną przed wyzwaniem utrzymania szkodliwych treści poza swoimi witrynami, takie jak Meta Platforms, TikTok i X, dawniej znany jako Twitter.

Porozumienie obejmuje zobowiązania do współpracy w zakresie opracowywania narzędzi do wykrywania wprowadzających w błąd obrazów, wideo i audio generowanych przez sztuczną inteligencję, tworzenia publicznych kampanii uświadamiających wyborców na temat zwodniczych treści i podejmowania działań w związku z takimi treściami w swoich usługach.

Firmy stwierdziły, że technologia identyfikacji treści generowanych przez sztuczną inteligencję lub poświadczania ich pochodzenia może obejmować znak wodny lub osadzanie metadanych. W porozumieniu nie określono harmonogramu realizacji zobowiązań ani sposobu, w jaki każda firma miałaby je wdrożyć.

„Myślę, że użyteczność tego (porozumienia) polega na szerokim zakresie firm, które się pod nim podpisały – powiedział Nick Clegg, prezes ds. globalnych w Meta Platforms. – Wszystko jest dobrze, jeśli poszczególne platformy opracowują nowe zasady wykrywania, pochodzenia, etykietowania, znaków wodnych i tak dalej, ale jeśli nie ma szerszego zobowiązania do zrobienia tego we wspólny, interoperacyjny sposób, utkniemy z mieszanką różnych zobowiązań”.

Generatywna sztuczna inteligencja jest już wykorzystywana do wpływania na politykę, a nawet przekonywania ludzi, by nie głosowali. W styczniu do wyborców w New Hampshire rozesłano robocall wykorzystujący fałszywy dźwięk prezydenta USA Joe Bidena, zachęcając ich do pozostania w domu podczas prawyborów prezydenckich w tym stanie.