Trenowanie, transparentność i poufność w czasach generatywnej AI – w ocenie Aleksandry Kaszuby, IBM Client Engineering Manager oraz Ernesta Syska, BlueBox AI Solution Manager, IBPM S.A.
Rozwój generatywnej sztucznej inteligencji (AI) przebiega bardzo dynamicznie. Łatwo wyjaśnić, dlaczego tak się dzieje. Podczas gdy tradycyjna AI jest szkolona w celu wykonania konkretnego zadania, generatywna AI zdemokratyzowała technologię jak nigdy dotąd. Wykorzystując duże modele językowe (LLM) może wykonać znacznie szerszy zakres zadań z wielu obszarów biznesowych, zwracają uwagę Aleksandra Kaszuba, IBM Client Engineering Manager oraz Ernest Syska, BlueBox AI Solution Manager, IBPM S.A.
Generatywna AI wywołuje jednocześnie uzasadnione obawy dotyczące transparencji, prywatności danych i ich bezpieczeństwa. Liderzy biznesowi, którzy już z niej korzystają albo wkrótce będą korzystać, są zmuszeni poruszać się w zmieniającym się krajobrazie regulacyjnym. Dotyczy to również potrzeb w zakresie stworzenia podstawowych zasad wykorzystania AI – w tym również roli nadzoru ludzkiego – oraz roli, jaką odegrają dane.
Krajobraz regulacyjny
Akt UE ws. sztucznej inteligencji jest obecnie na dobrej drodze, aby stać się pierwszym na świecie kompleksowym i ramowym dokumentem prawnym dotyczącym AI. Po raz pierwszy został zaproponowany w lutym 2020 roku. Aktualnie zakończyła się końcowa faza negocjacji w tej sprawie. Projekt analizuje i klasyfikuje systemy AI, które mogą być używane w różnych aplikacjach, według ryzyka, jakie stwarzają dla użytkowników. Różne branże i firmy będą mierzyć się z rozmaitymi przypadkami użycia sztucznej inteligencji i związanym z tym ryzykiem. Dlatego, aby uniknąć hamowania innowacji, jednolite regulacje nie powinny odnosić się do generatywnej AI jako całości. Stosowane obecnie przez UE podejście uznaje, że nie wszystkie jej rozwiązania niosą ze sobą ten sam poziom ryzyka. W rezultacie regulacje powinny dotyczyć kontekstu, w którym jest wdrażana AI, przy założeniu, że zastosowania o wysokim ryzyku są regulowane znacznie bardziej rygorystycznie.
Drugą ważną kwestią jest odpowiedzialność. Rządy mają tu znaczącą rolę do odegrania, ale istotne jest również to, aby twórcy i wdrażający AI byli odpowiedzialni za kontekst, w którym rozwijają i implementują tę technologię. Naszym zdaniem będzie to kluczowe w zapobieganiu sytuacjom, w których organizacje mogą twierdzić, że są zwolnione z odpowiedzialności w przypadkach wystąpienia dyskryminacji, stronniczości czy nieuczciwego działania.
Po trzecie, nie powinniśmy tworzyć reżimu licencyjnego dla AI, co utrudniłoby otwartą innowację i tworzyło ryzyko zawłaszczenia regulacji. Zamiast tego opowiadamy się za dynamicznym, otwartym ekosystemem AI, który promuje konkurencyjność, podnoszenie umiejętności i bezpieczeństwo, i który pomoże zapewnić, że modele sztucznej inteligencji będą kształtowane przez różnorodne głosy. Razem wspomniane zasady sprzyjałyby zachowaniu równowagi między innowacją a odpowiedzialnością, zapewniając, że AI może z powodzeniem rozwijać się w przejrzystym, otwartym i sprawiedliwym środowisku.
Rola nadzoru ludzkiego
Innym ważnym aspektem, z którym liderzy biznesu będą musieli się zmierzyć, jest potrzeba stworzenia skutecznej strategii zarządzania AI, opartej na przejrzystości i sprawiedliwości. Każda odpowiedzialna strategia zarządzania będzie zawierała znaczny pierwiastek nadzoru ludzkiego. Generatywna AI, podobnie jak tradycyjna, jest organiczna. Uczy się od swoich użytkowników i może dryfować lub doświadczać tego, co określa się mianem halucynacji, gdy LLM generuje fałszywe informacje.
Dlatego ważne jest, aby dostawcy dużych modeli językowych dbali o przejrzystość w zakresie swojego produktu. Dzięki temu firmy wdrażające tę technologię będą mogły wyjaśnić efekty pracy AI, co jest kluczowe w celu zapewnienia stosowania zaufanej generatywnej sztucznej inteligencji.
IBM watsonx.governance, którego premiera ma właśnie miejsce, realizuje powyższą zasadę. Jako kompleksowy zestaw narzędzi obejmujący zarządzanie modelami AI, umożliwia odpowiedzialne, przejrzyste i zrozumiałe przepływy pracy związane ze sztuczną inteligencją. Pozwoli to organizacjom kierować, zarządzać i monitorować działania związane z AI, a także wpłynie na zmniejszenia ryzyka, ulepszenie zarządzania wymogami regulacyjnymi i efektywne rozwiązywanie problemów etycznych za pomocą zautomatyzowanego oprogramowania. W miarę jak sztuczna inteligencja będzie coraz bardziej integrowana z codziennymi procesami, proaktywne zarządzanie będzie niezbędne do podejmowania odpowiedzialnych decyzji w sektorach prywatnych i publicznych.
Przykładem zastosowania systemu zarządzania ryzykiem związanym z generatywną AI jest BlueBox AI – rozwiązanie autorstwa firmy IBPM S.A. stworzone w celu przetwarzania zbiorów dokumentów i danych przez duże modele językowe w modelu onpremise. BlueBox AI jest od początku projektowany do integracji z systemem IBM watsonx.governance dając w efekcie podwyższony poziom bezpieczeństwa prawnego w praktycznym wykorzystaniu generatywnej AI.
Brak monitorowania nieprawidłowych wyników nie jest wyłącznie kwestią zgodności z przepisami, lecz wiąże się z dużo szerszym ryzykiem finansowym i reputacyjnym dla firmy. Istnieje wiele interesujących, rzeczywistych zastosowań dla takich sektorów jak ubezpieczenia czy bankowość. Jednak nieprawidłowe wyniki w tych przypadkach mogą powodować duże szkody. Opracowanie strategii zarządzania opartej na nadzorze ludzkim i przejrzystości pozwala firmom uniknąć tych ryzyk, a liderzy biznesowi powinni podnosić kwalifikacje swoich pracowników w tych obszarach już teraz, aby przygotować się na przyjęcie generatywnej AI.
Dane, dane i jeszcze raz dane
Wraz ze zmianą krajobrazu regulacyjnego, liderzy biznesu stoją przed podwójnym zadaniem wykorzystania korzyści płynących z generatywnej AI, w celu utrzymania własnej konkurencyjności i ochrony swoich organizacji przed finansowymi, reputacyjnymi i regulacyjnymi ryzykami, które może przynieść niewłaściwe zarządzanie generatywną AI.
Przedsiębiorcy stoją przed kilkoma wyzwaniami związanymi z generatywną AI, a jednym z największych pytań pozostaje jej komercyjna opłacalność. We wszystkich sektorach wykazują oni ogromny entuzjazm wobec tej technologii, ale rzeczywiste wdrożenie w organizacjach wymaga odpowiedniego przygotowania i właściwej, bezpiecznej prawnie architektury rozwiązania.
Branża technologiczna już rozpoczęła badania nad sposobami przyspieszenia tego procesu. Obserwujemy aktywną społeczność deweloperów tworzących modele sztucznej inteligencji, wstępnie je szkolących i udostępniających je na zasadach open source. Z czasem to oparte na współpracy podejście może przyspieszyć wdrożenie i zwiększyć zwrot z inwestycji dla firm.
Kolejny krok ku regulacji
Liderzy biznesowi muszą dotrzymywać kroku rozwijającemu się krajobrazowi regulacyjnemu, gdyż umożliwi im to wdrożenie godnej zaufania i odpowiedzialnej AI w całym cyklu jej życia, a społeczeństwu czerpanie korzyści z nowych, fascynujących możliwości jakie oferuje te technologia.
Więcej o rozwiązaniu BlueBox AI: https://pl.bluebox-ai.com/