Model governance wokół AI – Jak wygląda stan obecny i z jakimi wyzwaniami przyjdzie się mierzyć w najbliższych latach

Cyfrowa rewolucja, digitalizacja procesów biznesowych, a w ostatnim czasie pandemia COVID-19, której skala zaskoczyła wiele podmiotów i całe segmenty gospodarki, spowodowały zwiększenie zainteresowania wykorzystaniem sztucznej inteligencji (AI). Z badania przeprowadzonego przez PwC wśród przedsiębiorstw ze Stanów Zjednoczonych, Wielkiej Brytanii, Japonii i Australii wynika, że tylko 5% ankietowanych zadeklarowało, że nie korzysta z narzędzi wykorzystujących AI (analogiczne badanie w 2018 roku wskazało, że ten odsetek wynosił 47%).

Dynamiczny rozwój technologii oraz dostęp do zasobów danych o coraz lepszej jakości, które są potrzebne w procesie tworzenia narzędzi opartych o sztuczną inteligencję spowodowały, że punkt nacisku dotyczący przeznaczenia tych narzędzi uległ zmianie. Początkowo organizacje skupiały się na punktowym zastosowaniu AI, często w celu automatyzacji rutynowych zadań. Obecnie automatyzacja powtarzalnych zadań nie jest już najważniejszym priorytetem. Zaledwie 25% ankietowanych przedsiębiorstw w ramach PwC 2021 AI Predictions wskazało to jako najważniejszy priorytet w stosunku do 35% w ramach poprzedniej edycji tego badania. Odejście od wykorzystania AI na potrzebę wybranych obszarów (silosów) i przejście na “cross-funkcjonalne” zastosowanie, które dotyka wielu aspektów działalności przedsiębiorstwa, stanowi naturalną ścieżką rozwoju w wykorzystywaniu AI i może być elementem strategicznym w realizacji wizji przedsiębiorstwa opisującej, w jaki sposób dana organizacja ma działać w przyszłości. Często wpływ jest tak ogromny, że wiąże się z reorganizacją całego przedsiębiorstwa, a nawet zmianą modelu biznesowego.

 

Organizacje dostrzegają potrzebę właściwego AI governance i zarządzania ryzykiem wykorzystywania AI

Powszechniejsze wykorzystanie AI jest procesem, który wymaga odpowiedniej strategii, planu i organizacji (operacjonalizacji). W ramach tego procesu, przedsiębiorstwa zaczęły zwracać również uwagę na zagadnienia związane z ryzykiem korzystania z AI, a co za tym idzie, odpowiednimi działaniami, aby tym ryzykiem zarządzać (governance). Kolejna kwestia, która stała się niezwykle istotna, to analiza interakcji między AI a interesariuszami (np. klientami zewnętrznymi). Mowa tutaj o podejmowaniu kroków, które pomogą zapewnić, aby rozwijane systemy sztucznej inteligencji były: odpowiedzialne, godne zaufania, stabilne i uczciwe – w skrócie: wiarygodne i przewidywalne. W PwC nazywamy takie rozwiązania: Responsible AI.

 

Wśród najważniejszych działań, jakie podejmowane są przez organizacje, które dostrzegły istotność zagadnienia odpowiedzialnej sztucznej inteligencji są m.in.:

  • zwiększenie bezpieczeństwa AI dzięki zastosowaniu walidacji, monitorowaniu i weryfikacji
  • stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI
  • stworzenie systemów AI, które będą etyczne, zrozumiałe i legalne
  • usprawnienie zarządzania dzięki modelom operacyjnym i procesom AI
  • przeprowadzenie testów pod kątem weryfikacji ewentualnej stronniczości danych, modeli lub wykorzystania algorytmów przez człowieka

 

Kluczowe elementy dla właściwego AI governance

Aby móc mówić o Responsible AI należy uwzględnić kilka aspektów, które są ważne na wszystkich etapach wykorzystywania sztucznej inteligencji, od samego projektu rozwiązania po utrzymanie działającego systemu:

  • obowiązujące przepisy prawa i zasady etyczne,
  • model governance, który pozwala zaprojektować, przygotować, przetestować, wdrożyć i utrzymać system AI w zdefiniowanym środowisku organizacji,
  • zasady bezpieczeństwa, które będa chronić sam system i użytkowników wchodzących z nim w interakcje,
  • wyjaśnialność/interpretowalność, czyli czytelne i zrozumiałe zasady działania AI, pozwalające na jego łatwe, czytelne i jednoznaczne zinterpretowanie.

Poza tym, warto zwrócić uwagę na to, że odpowiedni model governance jest także istotny z punktu widzenia obszarów environmental, social, corporate governance (ESG):

  • zużycie znacznej ilości energii elektrycznej dla potrzeb działania skomplikowanych systemów AI może wpłynąć na generowany przez organizację ślad węglowy – Environmental,
  • zagadnienie równego traktowania interesariuszy jest ważnym aspektem obszaru Social,
  • fakt wykorzystywania AI ma wpływ na wartość przedsiębiorstwa, a brak odpowiedniego zarządzania takim systemem może negatywnie wpłynąć zarówno na jego reputację jak i w konsekwencji wycenę – Governance.

 

Projekt unijnego rozporządzenia w zakresie AI

Zasadność zapewnienia odpowiedniego poziomu wiarygodności i przewidywalności systemu sztucznej inteligencji i ochrony praw użytkowników wchodzących z nim interakcję zauważyła Unia Europejska, która opublikowała w kwietniu 2021 r. projekt Rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji. Zaproponowany projekt ma charakter regulacyjny i kładzie nacisk na zapewnienie, aby wprowadzone do obrotu i użytkowane systemy AI były bezpieczne i zgodne z obowiązującymi przepisami w obszarze praw podstawowych i wartości unijnych oraz aby przepisy i wymogi bezpieczeństwa wobec AI były skuteczne egzekwowane. Oprócz tego, celem projektu jest ułatwienie rozwoju jednolitego, bezpiecznego i wiarygodnego rynku oraz wsparcie innowacyjności.

Swoim zakresem projekt rozporządzenia obejmuje następujące aspekty:

stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AIzharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania AI w UE
stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI

zakazane praktyki w zakresie AI

stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI
szczególne wymogi dotyczące AI wysokiego ryzyka oraz obowiązki ich operatorów
stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI
zharmonizowane przepisy dotyczące przejrzystości w przypadku systemów AI służących do: wchodzenia w interakcję z osobami fizycznymi, rozpoznawania emocji, kategoryzacji biometrycznej oraz generowania obrazów, treści dźwiękowych czy też treści wideo lub do manipulowania nimi
stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI
przepisy dotyczące monitorowania AI po jego wprowadzeniu do obrotu i nadzoru nad rynkiem

 

Przygotowany projekt regulacji dotyczy nie tylko tych systemów, które zostały stworzone i wprowadzone do obrotu na terenie UE, ale także takich, których wyniki wykorzystywane są na terenie UE, pomimo że dostawcy i użytkownicy systemu AI znajdują się poza Unią.

Z punktu widzenia wielu podmiotów, kluczowym zagadnieniem jest definicja systemu sztucznej inteligencji wysokiego ryzyka. Przyjęte w projekcie podejście zakłada, że klasyfikacja zależy nie tylko od funkcji jaką pełni dany system AI, ale także od konkretnego celu i trybu jego wykorzystywania. Za systemy AI wysokiego ryzyka uznaje się systemy służące m.in. do: identyfikacji i kategoryzacji biometrycznej osób, zarządzania infrastrukturą krytyczną, wsparcia w ściganiu przestępstw i sprawowania sprawiedliwości, zarządzania migracją i azylem, a także zarządzania dostępem do: edukacji, usług publicznych i prywatnych (w tym systemy wyznaczające zdolność kredytową).

Przygotowany projekt nakłada wiele obowiązków w zakresie systemów AI, które zostaną zaklasyfikowane jako systemy wysokiego ryzyka. Obowiązki dotyczą różnych uczestników rynku (dostawców, importerów, dystrybutorów, użytkowników) i związane są m.in. z koniecznością wdrożenia systemu zarządzania ryzykiem czy też przestrzegania szeregu zasad w całym cyklu życia rozwiązania: od projektu po jego wdrożenie i utrzymanie (np. zapewnienie respektowania praw jednostki (privacy), kryteria jakości danych wykorzystywanych do trenowania i walidacji modeli, rejestry zdarzeń, wymogi przejrzystości i możliwości nadzoru ze strony człowieka oraz podleganie ocenie i nadzorowi ze strony właściwych organów notyfikujących). W przypadku pozostałych systemów AI – innych niż wysokiego ryzyka – rozporządzenie zakłada możliwość tworzenia kodeksów postępowania.

Przewidziane zostały także kary związane z naruszeniem rozporządzenia w wysokości nawet do 30 mln euro lub 6% całkowitego rocznego światowego obrotu danego przedsiębiorstwa.

 

IT RESELLER nr. 348/2023 „Proponujemy niezrównaną wiarygodność – podkreśla w wywiadzie okładkowym Mariusz Ziółkowski, TD SYNNEX