ChatGPT pod lupą prawodawców

ChatGPT, szybko rozwijający się program sztucznej inteligencji, zyskał uznanie dzięki zdolności szybkiego pisania odpowiedzi na szeroki zakres pytań i tym samym przyciągnął uwagę amerykańskich prawodawców, stawiających pytania o jego wpływ na bezpieczeństwo narodowe i edukację. 

 

Jak informuje Reuters, szacuje się, że ChatGPT przyciągnął 100 milionów aktywnych użytkowników miesięcznie zaledwie dwa miesiące po uruchomieniu, co czyni go najszybciej rozwijającą się aplikacją konsumencką w historii i coraz pilniejszym celem regulacji.

Chatbot został stworzony przez OpenAI, prywatną firmę wspieraną przez Microsoft Corp i udostępniony publicznie za darmo. Jego wszechobecność wywołała obawy, że generatywna sztuczna inteligencja, taka jak ChatGPT, może zostać wykorzystana do szerzenia dezinformacji, a nauczyciele obawiają się, że uczniowie będą wykorzystywać ją do ściągania.

Reprezentant Ted Lieu, demokrata z Komitetu Naukowego Izby Reprezentantów, powiedział w niedawnej opinii w “New York Times”, że jest podekscytowany sztuczną inteligencją i „niewiarygodnymi sposobami, w jakie będzie ona nadal rozwijać społeczeństwo”, ale także „przerażony sztuczną inteligencją, która pozostaje niekontrolowana i nieuregulowana”. Lieu przedstawił rezolucję napisaną przez ChatGPT, w której stwierdził, że Kongres powinien skupić się na sztucznej inteligencji, „aby zapewnić, że rozwój i wdrażanie AI odbywa się w sposób bezpieczny, etyczny i szanujący prawa i prywatność wszystkich Amerykanów oraz że korzyści płynące z jej użytkowania są szeroko rozpowszechnione, a ryzyko zminimalizowane”.

Sam ChatGPT, zapytany, jak powinien być regulowany, powiedział: „Jako neutralny model języka sztucznej inteligencji nie mam stanowiska w sprawie konkretnych przepisów, które mogą, ale nie muszą, zostać uchwalone w celu regulowania systemów sztucznej inteligencji, takich jak ja”. Następnie wymienił potencjalne obszary zainteresowania organów regulacyjnych, takie jak prywatność danych, stronniczość i uczciwość oraz przejrzystość w sposobie pisania odpowiedzi.

 

Firma OpenAI oświadczyła: „Nie chcemy, aby ChatGPT był używany do wprowadzających w błąd celów w szkołach lub gdziekolwiek indziej, dlatego już opracowujemy środki zaradcze, które pomogą każdemu zidentyfikować tekst generowany przez ten system”.

 

W styczniu dyrektor generalny OpenAI, Sam Altman, udał się na Kapitol, gdzie spotkał się z prawodawcami zorientowanymi na technologię, takimi jak senatorowie Mark Warner, Ron Wyden i Richard Blumenthal oraz przedstawiciel Jake Auchincloss.

Doradca Wydena powiedział, że prawodawca naciskał na Altmana, aby upewnić się, że sztuczna inteligencja nie propaguje uprzedzeń, które mogłyby prowadzić do dyskryminacji w prawdziwym świecie, takich jak mieszkalnictwo lub praca.

„Chociaż senator Wyden wierzy, że sztuczna inteligencja ma ogromny potencjał, aby przyspieszyć innowacje i badania, koncentruje się na tym, aby zautomatyzowane systemy nie automatyzowały dyskryminacji w tym procesie” – powiedział Keith Chu, doradca Wydena. Drugi doradca Kongresu opisał dyskusje jako skupiające się na szybkości zmian w sztucznej inteligencji i sposobach jej wykorzystania. Zgodnie z doniesieniami medialnymi, w związku z obawami o praktyki plagiatowe, ChatGPT został już zakazany w szkołach w Nowym Jorku i Seattle. Jeden z doradców Kongresu powiedział, że obawy, jakie słyszeli od wyborców, pochodziły głównie od nauczycieli skupionych na tym temacie.

W wywiadzie dla Timesa, Mira Murati, dyrektor ds. technologii OpenAI, powiedziała, że firma z zadowoleniem przyjęła wkład, w tym ten od organów regulacyjnych i rządów. „Nie jest za wcześnie (aby zaangażować się organy regulacyjne)” – powiedziała. Andrew Burt, partner zarządzający BNH.AI, firmą prawniczą zajmującą się odpowiedzialnością AI, zwrócił uwagę na obawy związane z bezpieczeństwem narodowym, dodając, że rozmawiał z prawodawcami, którzy badają, czy uregulować ChatGPT i podobne systemy sztucznej inteligencji, takie jak Google Bard, chociaż przyznał, że nie może ujawnić żadnych nazwisk.

„Cała propozycja tego typu systemów sztucznej inteligencji polega na tym, że mogą generować treści w skalach i prędkościach, których ludzie po prostu nie są w stanie ogarnąć” – powiedział. „Spodziewałbym się, że złośliwe podmioty, podmioty niepaństwowe i podmioty państwowe, które mają interesy wrogie Stanom Zjednoczonym, będą wykorzystywać te systemy do generowania informacji, które mogą być błędne lub szkodliwe”.