G7 wzywa do opracowania globalnych standardów technicznych dla sztucznej inteligencji 

Przywódcy krajów Grupy Siedmiu (G7) wezwali w sobotę do opracowania i przyjęcia standardów technicznych, aby sztuczna inteligencja (AI) była „godna zaufania”. Swój apel motywują stwierdzeniem, że zarządzanie technologią nie nadąża za jej rozwojem. 

Jak podaje Reuters, podczas gdy przywódcy G7 na spotkaniu w Hiroszimie w Japonii uznali, że podejścia do osiągnięcia „wspólnej wizji i celu godnej zaufania sztucznej inteligencji mogą się różnić”, stwierdzili w oświadczeniu, że zasady dotyczące technologii cyfrowych, takich jak sztuczna inteligencja, powinny być „zgodne z naszymi wspólnymi wartościami demokratycznymi”.

Porozumienie nastąpiło po tym, jak Unia Europejska, która uczestniczy w G7, zbliżyła się w tym miesiącu do uchwalenia przepisów regulujących technologię sztucznej inteligencji, potencjalnie pierwszego na świecie kompleksowego prawa dotyczącego sztucznej inteligencji, które może stanowić precedens wśród gospodarek rozwiniętych.

„Chcemy, aby systemy sztucznej inteligencji były dokładne, niezawodne, bezpieczne i niedyskryminacyjne, niezależnie od ich pochodzenia” – powiedziała w piątek przewodnicząca Komisji Europejskiej, Ursula von der Leyen.

Przywódcy G7 powiedzieli, że „muszą natychmiast podsumować możliwości i wyzwania związane z generatywną sztuczną inteligencją”, podzbiorem technologii spopularyzowanej przez aplikację ChatGPT.

Uznając różnice w sposobie regulacji sztucznej inteligencji, przywódcy G7 zgodzili się w piątek na utworzenie ministerialnego forum nazwanego „procesem AI z Hiroszimy” w celu omówienia kwestii związanych z generatywną sztuczną inteligencją, takich jak prawa autorskie i dezinformacja, do końca tego roku.

Szczyt miał miejsce po spotkaniu ministrów ds. cyfrowych G7 w zeszłym miesiącu, podczas którego jego członkowie – USA, Japonia, Niemcy, Wielka Brytania, Francja, Włochy, Kanada i UE – stwierdzili, że powinni przyjąć zasady AI „oparte na ryzyku”. Oczekuje się również, że UE i USA wymienią poglądy na temat pojawiających się technologii na posiedzeniu Rady ds. Handlu i Technologii w Szwecji w dniach 30-31 maja.

ChatGPT OpenAI zmusił Elona Muska i grupę ekspertów AI do podniesienia alarmu w marcu, wzywając do sześciomiesięcznej przerwy w opracowywaniu potężniejszych systemów, powołując się na potencjalne zagrożenia dla społeczeństwa. Miesiąc później unijni prawodawcy wezwali światowych przywódców do znalezienia sposobów kontrolowania technologii sztucznej inteligencji, twierdząc, że rozwijają się one szybciej niż oczekiwano.

Sam Altman, dyrektor generalny wspieranej przez Microsoft (MSFT.O) OpenAI, powiedział we wtorek panelowi Senatu, że Stany Zjednoczone powinny rozważyć wymagania licencyjne i testowe dla rozwoju modeli AI.

Jak dotąd Stany Zjednoczone przyjęły ostrożne podejście do zarządzania sztuczną inteligencją, a prezydent Joe Biden powiedział w zeszłym miesiącu, że okaże się, czy sztuczna inteligencja jest niebezpieczna.

Japonia, która w tym roku przewodniczy G7, była jeszcze bardziej przychylna, obiecując wsparcie dla publicznego i przemysłowego wdrażania sztucznej inteligencji, jednocześnie monitorując związane z tym ryzyko.

„Ważne jest, aby właściwie radzić sobie zarówno z potencjałem, jak i ryzykiem” – powiedział w zeszłym tygodniu premier Fumio Kishida rządowej radzie AI.

Różne podejścia krajów zachodnich do sztucznej inteligencji kontrastują z restrykcyjną polityką Chin. Jej regulator ds. cyberprzestrzeni w kwietniu przedstawił projekt środków mających na celu dostosowanie generatywnych usług opartych na sztucznej inteligencji do podstawowych socjalistycznych wartości kraju.

Przywódcy wezwali również organizacje międzynarodowe, takie jak Organizacja Współpracy Gospodarczej i Rozwoju, do rozważenia analizy wpływu zmian politycznych.