Obecni i byli pracownicy OpenAI, Google DeepMind ostrzegają przed zagrożeniami związanymi ze sztuczną inteligencją
Grupa obecnych i byłych pracowników firm zajmujących się sztuczną inteligencją, w tym wspieranego przez Microsoft OpenAI i Google DeepMind firmy Alphabet, wyraziła obawy dotyczące zagrożeń stwarzanych przez powstającą technologię.
W liście otwartym stwierdzono, że motywy finansowe firm zajmujących się sztuczną inteligencją utrudniają skuteczny nadzór.
„Nie wierzymy, że dostosowane struktury ładu korporacyjnego są wystarczające, aby to zmienić” – czytamy w liście.
Grupa ponadto ostrzega przed zagrożeniami związanymi z nieuregulowaną sztuczną inteligencją, począwszy od rozprzestrzeniania się dezinformacji po utratę niezależnych systemów sztucznej inteligencji i pogłębienie istniejących nierówności, co może doprowadzić do „wyginięcia człowieka”.
Naukowcy znaleźli przykłady generatorów obrazów od firm takich jak OpenAI i Microsoft, które produkują zdjęcia z dezinformacją związaną z głosowaniem, pomimo polityki przeciwko takim treściom.
Firmy zajmujące się sztuczną inteligencją mają „słabe zobowiązania” do dzielenia się z rządami informacjami na temat możliwości i ograniczeń swoich systemów, napisano w liście, dodając, że nie można polegać na tych firmach, aby dobrowolnie udostępniały te informacje.
List otwarty jest najnowszym, w którym podniesiono obawy dotyczące bezpieczeństwa technologii generatywnej sztucznej inteligencji, która może szybko i tanio tworzyć tekst, obrazy i dźwięk podobne do ludzkich.
Grupa wezwała firmy zajmujące się sztuczną inteligencją do ułatwienia obecnym i byłym pracownikom procesu zgłaszania obaw związanych z ryzykiem i nieegzekwowania umów o zachowaniu poufności, które zabraniają krytyki.