Google nakłada więcej ograniczeń na AI Ovierwiew po tym, jak kazał ludziom m.in. nakładać klej na pizzę

Liz Reid, szefowa Google Search, przyznała, że wyszukiwarka firmy zwróciła kilka „dziwnych, niedokładnych lub nieprzydatnych przeglądów AI” po ich wdrożeniu dla wszystkich w USA.

Dyrektor opublikowała wyjaśnienie bardziej osobliwych odpowiedzi generowanych przez sztuczną inteligencję Google w poście na blogu, w którym ogłosiła również, że firma wdrożyła zabezpieczenia, które pomogą nowej funkcji zwracać dokładniejsze i mniej godne memów wyniki.

Reid broniła Google i wskazała, że niektóre z bardziej rażących odpowiedzi AI Overview, takie jak twierdzenia, że bezpiecznie jest zostawiać psy w samochodach, są fałszywe. Wirusowy zrzut ekranu pokazujący odpowiedź na pytanie „Ile kamieni powinienem zjeść?” jest prawdziwy, ale powiedziała, że Google wymyśliło odpowiedź, ponieważ strona internetowa opublikowała satyryczną treść poruszającą ten temat.

„Zanim te zrzuty ekranu stały się wirusowe, praktycznie nikt nie zadał Google tego pytania” – wyjaśniła, dlaczego sztuczna inteligencja firmy połączyła się z tą witryną.

Wiceprezes Google potwierdziła również, że AI Overview powiedział ludziom, aby używali kleju do przyklejania sera do pizzy na podstawie treści zaczerpniętych z forum. Stwierdziła, że fora zazwyczaj dostarczają „autentycznych informacji z pierwszej ręki”, ale mogą również prowadzić do „mniej niż pomocnych porad”. Dyrektor nie wspomniała o innych wirusowych odpowiedziach AI Overview, ale jak donosi The Washington Post, technologia powiedziała również użytkownikom, że Barack Obama jest muzułmaninem i że ludzie powinni pić dużo moczu, co powinno pomóc im usunąć kamień nerkowy. W mediach krążyły również m.in. zrzuty ekranu, na którym Google radziło, że skok z Golden Bridge miał być lekarstwem na depresję.

Reid powiedziała, że firma intensywnie testowała tę funkcję przed jej uruchomieniem, ale „nie ma to jak miliony ludzi korzystających z tej funkcji przy wielu nowych wyszukiwaniach”. Google najwyraźniej był w stanie określić wzorce, w których jego technologia AI nie radziła sobie dobrze, patrząc na przykłady jej odpowiedzi w ciągu ostatnich kilku tygodni. Następnie wprowadzono zabezpieczenia w oparciu o swoje obserwacje, zaczynając od ulepszenia sztucznej inteligencji, aby była w stanie lepiej wykrywać treści humorystyczne i satyryczne. Zaktualizowała również swoje systemy, aby ograniczyć dodawanie odpowiedzi generowanych przez użytkowników w przeglądach, takich jak media społecznościowe i posty na forach, które mogą dawać ludziom mylące lub nawet szkodliwe porady. Ponadto „dodała ograniczenia wyzwalające dla zapytań, w których przeglądy AI nie okazały się tak pomocne” i przestała wyświetlać odpowiedzi generowane przez AI dla niektórych tematów zdrowotnych.