Obecni i byli pracownicy OpenAI, Google DeepMind ostrzegają przed zagrożeniami związanymi ze sztuczną inteligencją

Grupa obecnych i byłych pracowników firm zajmujących się sztuczną inteligencją, w tym wspieranego przez Microsoft OpenAI i Google DeepMind firmy Alphabet, wyraziła obawy dotyczące zagrożeń stwarzanych przez powstającą technologię.

W liście otwartym stwierdzono, że motywy finansowe firm zajmujących się sztuczną inteligencją utrudniają skuteczny nadzór.

„Nie wierzymy, że dostosowane struktury ładu korporacyjnego są wystarczające, aby to zmienić” – czytamy w liście.

Grupa ponadto ostrzega przed zagrożeniami związanymi z nieuregulowaną sztuczną inteligencją, począwszy od rozprzestrzeniania się dezinformacji po utratę niezależnych systemów sztucznej inteligencji i pogłębienie istniejących nierówności, co może doprowadzić do „wyginięcia człowieka”.

Naukowcy znaleźli przykłady generatorów obrazów od firm takich jak OpenAI i Microsoft, które produkują zdjęcia z dezinformacją związaną z głosowaniem, pomimo polityki przeciwko takim treściom.

Firmy zajmujące się sztuczną inteligencją mają „słabe zobowiązania” do dzielenia się z rządami informacjami na temat możliwości i ograniczeń swoich systemów, napisano w liście, dodając, że nie można polegać na tych firmach, aby dobrowolnie udostępniały te informacje.

List otwarty jest najnowszym, w którym podniesiono obawy dotyczące bezpieczeństwa technologii generatywnej sztucznej inteligencji, która może szybko i tanio tworzyć tekst, obrazy i dźwięk podobne do ludzkich.

Grupa wezwała firmy zajmujące się sztuczną inteligencją do ułatwienia obecnym i byłym pracownikom procesu zgłaszania obaw związanych z ryzykiem i nieegzekwowania umów o zachowaniu poufności, które zabraniają krytyki.