AI Seoul Summit – 16 firm deklaruje bezpieczeństwo rozwoju technologii
Szesnaście firm zajmujących się sztuczną inteligencją, w tym Alphabet’s Google, Meta, Microsoft i OpenAI, a także firmy z Chin, Korei Południowej i Zjednoczonych Emiratów Arabskich zobowiązały się do bezpiecznego rozwoju technologii.
Oświadczenie ujawniono podczas organizowanego przez Wielką Brytanię i Koreę Południową globalnego szczytu w Seulu poświęconego różnym zagadnieniom związanymi ze sztuczną inteligencją. Możemy w nim przeczytać, że porozumienie jest krokiem naprzód w stosunku do liczby zobowiązań podjętych podczas pierwszego globalnego szczytu AI, który odbył się sześć miesięcy temu.
Zhipu.ai, wspierany przez chińskich gigantów technologicznych Alibaba, Tencent, Meituan i Xiaomi, a także Instytut Innowacji Technologicznych ZEA znalazły się wśród 16 firm, które zobowiązały się do opublikowania ram bezpieczeństwa dotyczących sposobu pomiaru ryzyka związanego z pionierskimi modelami sztucznej inteligencji.
Firmy, w tym Amazon, IBM i Samsung Electronics, dobrowolnie zobowiązały się do nierozwijania ani niewdrażania modeli sztucznej inteligencji, jeśli nie można w wystarczającym stopniu złagodzić ryzyka oraz do zapewnienia zarządzania i przejrzystości w podejściu do bezpieczeństwa sztucznej inteligencji.
„Niezbędne jest osiągnięcie międzynarodowego porozumienia w sprawie »czerwonych linii«, w których rozwój sztucznej inteligencji stałby się niedopuszczalnie niebezpieczny dla bezpieczeństwa publicznego” – powiedziała Beth Barnes, założycielka METR, organizacji non-profit zajmującej się bezpieczeństwem modeli sztucznej inteligencji.
Microsoft zaprezentował Copilot+ PC – generację nowych laptopów wspieranych przez usługi AI