Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Obecni i byli pracownicy OpenAI, Google DeepMind ostrzegają przed zagrożeniami związanymi ze sztuczną inteligencją

Grupa obecnych i byłych pracowników firm zajmujących się sztuczną inteligencją, w tym wspieranego przez Microsoft OpenAI i Google DeepMind firmy Alphabet, wyraziła obawy dotyczące zagrożeń stwarzanych przez powstającą technologię.

W liście otwartym stwierdzono, że motywy finansowe firm zajmujących się sztuczną inteligencją utrudniają skuteczny nadzór.

„Nie wierzymy, że dostosowane struktury ładu korporacyjnego są wystarczające, aby to zmienić” – czytamy w liście.

Grupa ponadto ostrzega przed zagrożeniami związanymi z nieuregulowaną sztuczną inteligencją, począwszy od rozprzestrzeniania się dezinformacji po utratę niezależnych systemów sztucznej inteligencji i pogłębienie istniejących nierówności, co może doprowadzić do „wyginięcia człowieka”.

Naukowcy znaleźli przykłady generatorów obrazów od firm takich jak OpenAI i Microsoft, które produkują zdjęcia z dezinformacją związaną z głosowaniem, pomimo polityki przeciwko takim treściom.

Firmy zajmujące się sztuczną inteligencją mają „słabe zobowiązania” do dzielenia się z rządami informacjami na temat możliwości i ograniczeń swoich systemów, napisano w liście, dodając, że nie można polegać na tych firmach, aby dobrowolnie udostępniały te informacje.

List otwarty jest najnowszym, w którym podniesiono obawy dotyczące bezpieczeństwa technologii generatywnej sztucznej inteligencji, która może szybko i tanio tworzyć tekst, obrazy i dźwięk podobne do ludzkich.

Grupa wezwała firmy zajmujące się sztuczną inteligencją do ułatwienia obecnym i byłym pracownikom procesu zgłaszania obaw związanych z ryzykiem i nieegzekwowania umów o zachowaniu poufności, które zabraniają krytyki.