Chiny chcą uregulować AI z „ludzką osobowością” – nowe wymogi dla usług konsumenckich

Chiny AI emocje prawo

Chiny opublikowały projekt przepisów, które mają objąć szczególnym nadzorem usługi sztucznej inteligencji zaprojektowane do naśladowania ludzkiej osobowości i budowania emocjonalnej relacji z użytkownikiem. Regulacje mają wzmocnić standardy bezpieczeństwa, etyki i ochrony użytkowników w szybko rosnącym segmencie konsumenckiej AI.

 

Nowe zasady dla AI „z ludzką twarzą”

Projekt opublikowany do konsultacji publicznych przez chińskiego regulatora cyberprzestrzeni, czyli Cyberspace Administration of China, dotyczy produktów i usług AI dostępnych dla szerokiego grona odbiorców. Chodzi o systemy, które prezentują symulowane cechy osobowości, wzorce myślenia oraz style komunikacji i wchodzą z użytkownikami w interakcje emocjonalne za pośrednictwem tekstu, obrazu, dźwięku lub wideo.

Regulator jasno wskazuje, że dynamiczny rozwój takich rozwiązań wymaga precyzyjnych ram prawnych. Celem jest ograniczenie ryzyk psychologicznych, społecznych i bezpieczeństwa narodowego, które mogą wynikać z coraz bardziej realistycznych i angażujących systemów sztucznej inteligencji.

 

Ostrzeżenia przed uzależnieniem i odpowiedzialność dostawców

Jednym z kluczowych elementów projektu jest obowiązek aktywnego przeciwdziałania nadmiernemu korzystaniu z usług AI. Dostawcy mieliby ostrzegać użytkowników przed ryzykiem uzależnienia oraz reagować w sytuacjach, gdy algorytmy wykryją symptomy kompulsywnego korzystania z usługi.

Zgodnie z projektem, firmy będą ponosić odpowiedzialność za bezpieczeństwo swoich produktów na każdym etapie cyklu życia, od projektowania po eksploatację. Obejmuje to wdrożenie mechanizmów przeglądu algorytmów, ochrony danych oraz zabezpieczenia informacji osobowych użytkowników.

 

Monitorowanie emocji i granice dla generowanych treści

Regulacje kładą duży nacisk na identyfikację stanu emocjonalnego użytkownika oraz ocenę poziomu jego zależności od systemu AI. Jeśli algorytmy wykryją skrajne emocje lub zachowania noszące znamiona uzależnienia, dostawcy mają obowiązek podjąć „niezbędne środki”, by interweniować. Projekt nie precyzuje ich formy, pozostawiając firmom pewną swobodę w doborze narzędzi.

Dokument wyznacza także twarde granice dotyczące generowanych treści. Systemy AI nie będą mogły tworzyć materiałów zagrażających bezpieczeństwu narodowemu, rozpowszechniających plotki, promujących przemoc ani treści obscenicznych. To kolejny element szerokiej strategii Pekinu, który od lat łączy rozwój nowych technologii z silną kontrolą regulacyjną.