Branża cyfrowa naszej części Europy apeluje do UE o umożliwienie trenowania modeli AI na publicznych danych
Organizacje branży cyfrowej z 8 krajów Europy Środkowo-Wschodniej we wspólnym apelu do przedstawicieli rządów swoich państw oraz Komisji Europejskiej apelują o spójne oraz jasne ramy przepisów dotyczących wykorzystywania danych. Istnieje ich zdaniem uzasadniona obawa, że unijne regulacje nie pozwolą firmom w pełni wykorzystywać potencjału technologicznego.
Nadawcy listu stawiają znak równości między wzrostem gospodarczym i konkurencyjnością oraz dostępem do danych. Także technologia rozwijająca się obecnie najszybciej jest od nich wprost uzależniona.
Pod apelem podpisało się w sumie 9 organizacji branży cyfrowej z krajów Europy Środkowo-Wschodniej, w tym z Bułgarii, Czech, Litwy, Łotwy, Polski, Rumunii, Słowacji i Słowenii. Współpracują one w ramach CEE Digital Coalition – koalicji działającej wspólnie na rzecz transformacji cyfrowej naszej części regionu Europy.
„Jako branża widzimy, że sztuczna inteligencja to dziś ogromna szansa dla europejskiej gospodarki. Obecne przepisy, które regulują technologię, niestety w pewnych aspektach są zbyt sztywne i to powoduje, że rozwój AI może być mocno ograniczony w Unii Europejskiej. Umożliwienie trenowania sztucznej inteligencji na bazie publicznie dostępnych danych jest niezbędne, by pomóc europejskim firmom pozostać konkurencyjnym na rynku” – skomentował prezes Cyfrowej Polski Michał Kanownik.
Sygnatariusze przypominają w liście, że sztuczna inteligencja, by się rozwijać, potrzebuje stałego dostępu do danych – w tym także tych regionalnych, specyficznych dla konkretnej części świata. Tymczasem – jak wskazuje CEE Digital Coalition – w Europie obecne przepisy ochrony danych osobowych nie do końca pozwalają firmom technologicznym na rozwój w tym obszarze.
„Chociaż wierzymy w znaczenie ochrony prywatności osób fizycznych, (…) prywatność (…) musi być zrównoważona z innymi prawami podstawowymi, takimi jak wolność wypowiedzi i informacji oraz swoboda prowadzenia działalności gospodarczej. Z tego powodu uważamy, że wykorzystanie publicznie dostępnych danych własnych do szkolenia dużych modeli językowych w oparciu o uzasadniony interes powinno być dozwolone” – twierdzą sygnatariusze listu.
Apelujący argumentują swoje stanowisko mi.in tym, że modele językowe nie są bazami danych osobowych użytkowników.
„Są to obiekty matematyczne, które nie przechowują kopii danych, na których zostały przeszkolone. Zamiast tego agregują one wiedzę z danych szkoleniowych w celu przewidywania typowych wzorców językowych i logicznych powiązań między słowami”.
Przedstawiciele branży wskazują również, że dostęp do publicznie otwartych danych do szkolenia sztucznej inteligencji w oparciu o uzasadniony interes ma zasadnicze znaczenie dla rozwoju technologii AI w Europie. Zdaniem organizacji cyfrowych, umożliwia ono przedsiębiorcom podejmowanie trafnych decyzji biznesowych, optymalizację zarządzania firmą i opracowywanie innowacyjnych produktów, które mogą konkurować z produktami oferowanymi przez firmy w innych regionach świata.
„Ograniczenie wykorzystania publicznie dostępnych danych własnych do szkolenia modeli językowych postawiłoby europejskie firmy w niekorzystnej sytuacji i utrudniłoby rozwój technologii AI w Europie”.
Sygnatariusze wskazują ponadto, że wykorzystanie publicznie dostępnych danych do szkolenia modeli sztucznej inteligencji jest zgodne z wcześniejszą decyzją osób fizycznych o upublicznieniu ich myśli i informacji. Według branży, jest to również zgodne ze zgodą osób fizycznych w zakresie wykorzystywania ich danych osobowych w zbiorach danych szkoleniowych AI, którą mogą wycofać.