Chiny proponują czarną listę danych szkoleniowych dla modeli AI
Chiny opublikowały proponowane wymagania bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można używać do uczenia modeli sztucznej inteligencji.
Jak podaje Reuters, publikacja dokumentu następuje nieco ponad miesiąc po tym, jak organy regulacyjne zezwoliły kilku chińskim firmom technologicznym, w tym gigantowi wyszukiwarek Baidu, na publiczne udostępnienie generatywnych chatbotów opartych na sztucznej inteligencji.
Wymagania zostały opublikowane w środę przez Krajowy Komitet Normalizacyjny Bezpieczeństwa Informacji, w skład którego wchodzą urzędnicy Chińskiej Administracji Cyberprzestrzeni (CAC), Ministerstwa Przemysłu i Technologii Informacyjnych oraz policji.
Komisja proponuje przeprowadzenie oceny bezpieczeństwa każdego zbioru treści wykorzystywanych do uczenia dostępnych publicznie modeli generatywnej sztucznej inteligencji, przy czym te zawierające „ponad 5% nielegalnych i szkodliwych informacji” należy umieścić na czarnej liście. Informacje te obejmują „popieranie terroryzmu” lub przemocy, a także „obalenie ustroju socjalistycznego”, „niszczenie wizerunku kraju” oraz „podważanie jedności narodowej i stabilności społecznej”. Projekt przepisów stanowi również, że informacje cenzurowane w chińskim Internecie nie powinny być wykorzystywane do szkolenia modeli.
Generatywna sztuczna inteligencja, spopularyzowana przez sukces chatbota ChatGPT OpenAI, uczy się, jak podejmować działania na podstawie przeszłych danych i na podstawie tego szkolenia tworzy nowe treści, takie jak tekst lub obrazy.
Chiny postrzegają sztuczną inteligencję jako obszar, w którym chcą rywalizować z USA, i postawiły sobie za cel stać się światowym liderem w tej dziedzinie do 2030 roku.
Od kwietnia CAC twierdzi, że chce, aby firmy przedstawiały władzom oceny bezpieczeństwa przed udostępnieniem społeczeństwu generatywnych usług opartych na sztucznej inteligencji. W lipcu organ regulacyjny ds. cyberprzestrzeni opublikował środki regulujące takie usługi, które zdaniem analityków były znacznie mniej uciążliwe niż środki określone w kwietniowym projekcie.
Opublikowany w środę projekt wymogów bezpieczeństwa nakłada na organizacje szkolące te modele sztucznej inteligencji obowiązek uzyskania zgody osób, których dane osobowe, w tym dane biometryczne, są wykorzystywane do celów szkoleniowych.
Określają także szczegółowe wytyczne dotyczące unikania naruszeń praw własności intelektualnej. Kraje na całym świecie zmagają się z ustanawianiem barier ochronnych dla tej technologii.