Europejska Rada Ochrony Danych twierdzi, że ChatGPT nie spełnia wymaganych standardów
Wysiłki OpenAI mające na celu generowanie mniej fałszywych informacji z chatbota ChatGPT nie wystarczą, aby zapewnić pełną zgodność z przepisami Unii Europejskiej dotyczącymi danych, jak stwierdziła grupa zadaniowa unijnego organu nadzorującego prywatność.
Organ zrzeszający krajowe organy odpowiedzialne za ochronę prywatności w Europie utworzył w zeszłym roku grupę zadaniową ds. ChatGPT po tym, jak krajowe organy regulacyjne pod przewodnictwem władz włoskich wyraziły obawy dotyczące powszechnie stosowanej usługi sztucznej inteligencji.
Dokładność danych jest jedną z zasad przewodnich unijnego zbioru przepisów o ochronie danych. „W rzeczywistości, ze względu na probabilistyczny charakter systemu, obecne podejście szkoleniowe prowadzi do modelu, który może również dawać stronnicze lub zmyślone wyniki – stwierdzono w raporcie. – Ponadto wyniki dostarczane przez ChatGPT prawdopodobnie zostaną uznane przez użytkowników końcowych za zgodne z faktami, w tym informacje dotyczące osób fizycznych, niezależnie od ich rzeczywistej dokładności”.
„Chociaż środki podjęte w celu zapewnienia zgodności z zasadą przejrzystości są korzystne i pozwalają uniknąć błędnej interpretacji wyników ChatGPT, nie są wystarczające, aby zapewnić zgodność z zasadą dokładności danych” – jak stwierdziła Europejska Rada Ochrony Danych w raporcie opublikowanym w piątek na jej stronie internetowej.
Jak wynika z raportu, różne dochodzenia wszczęte przez krajowe organy odpowiedzialne za ochronę prywatności w niektórych państwach członkowskich są nadal w toku, dodając, że w związku z tym nie było jeszcze możliwe przedstawienie pełnego opisu ich wyników. Ustalenia należy rozumieć jako „wspólny mianownik” organów krajowych.