Europejska Rada Ochrony Danych twierdzi, że ChatGPT nie spełnia wymaganych standardów

Wysiłki OpenAI mające na celu generowanie mniej fałszywych informacji z chatbota ChatGPT nie wystarczą, aby zapewnić pełną zgodność z przepisami Unii Europejskiej dotyczącymi danych, jak stwierdziła grupa zadaniowa unijnego organu nadzorującego prywatność. 

Organ zrzeszający krajowe organy odpowiedzialne za ochronę prywatności w Europie utworzył w zeszłym roku grupę zadaniową ds. ChatGPT po tym, jak krajowe organy regulacyjne pod przewodnictwem władz włoskich wyraziły obawy dotyczące powszechnie stosowanej usługi sztucznej inteligencji.

Dokładność danych jest jedną z zasad przewodnich unijnego zbioru przepisów o ochronie danych. „W rzeczywistości, ze względu na probabilistyczny charakter systemu, obecne podejście szkoleniowe prowadzi do modelu, który może również dawać stronnicze lub zmyślone wyniki – stwierdzono w raporcie. – Ponadto wyniki dostarczane przez ChatGPT prawdopodobnie zostaną uznane przez użytkowników końcowych za zgodne z faktami, w tym informacje dotyczące osób fizycznych, niezależnie od ich rzeczywistej dokładności”.

„Chociaż środki podjęte w celu zapewnienia zgodności z zasadą przejrzystości są korzystne i pozwalają uniknąć błędnej interpretacji wyników ChatGPT, nie są wystarczające, aby zapewnić zgodność z zasadą dokładności danych” – jak stwierdziła Europejska Rada Ochrony Danych w raporcie opublikowanym w piątek na jej stronie internetowej.

Jak wynika z raportu, różne dochodzenia wszczęte przez krajowe organy odpowiedzialne za ochronę prywatności w niektórych państwach członkowskich są nadal w toku, dodając, że w związku z tym nie było jeszcze możliwe przedstawienie pełnego opisu ich wyników.  Ustalenia należy rozumieć jako „wspólny mianownik” organów krajowych.

 

IT RESELLER nr 357/2024 “Inwestycje w nasze rozwiązania są kluczowe dla każdego biznesu” – podkreśla w wywiadzie okładkowym Maciej Kamiński, Dyrektor Samsung Memory na Polskę i region CEE