Zamiast zakazywać sztucznej inteligencji, najwyższy czas wziąć większą odpowiedzialność i zwiększyć wiedzę o AI, podkreśla Jennifer Belissent, główna strateg ds. danych w Snowflake
Wyobraź sobie jazdę samochodem bez zasad ruchu drogowego. Przerażające, prawda? Im więcej samochodów na drodze, tym większe ryzyko wypadków lub całkowitego zablokowania ruchu. W zasadzie wszystko, co może potencjalnie zagrażać ludziom, wymaga jasno określonych zasad, aby zapewnić bezpieczeństwo. To samo dotyczy sztucznej inteligencji. W swoim komentarzu, Jennifer Belissent, główna strateg ds. danych w Snowflake wskazuje, że zamiast zakazywać AI, powinniśmy opracować zasady, które minimalizują ryzyko i zwiększają zaufanie do tej technologii.
W miarę jak AI znajduje coraz większe zastosowanie wśród konsumentów, firm i rządów, rośnie potrzeba ustalenia zasad odpowiedzialnego korzystania z tej technologii. Tak, jak zwiększyła się świadomość dotycząca wpływu samochodów na środowisko i wprowadzono działania mające na celu jego ograniczenie, podobnie jest z AI – potrzebne są mniej energochłonne rozwiązania.
– Do tej pory wiele rozmów o AI skupiało się na egzystencjalnych tematach, takich jak moment, w którym AI może przewyższyć inteligencją ludzi lub obawach, czy AI nas zastąpi. Ale ten etap mamy już za sobą. Agenci AI zaczną przejmować wiele ról – od pisania wiadomości czy kodu oprogramowania, po podejmowanie decyzji praktycznie w każdej dziedzinie naszego życia, niezależnie od tego, czy jesteśmy tego świadomi, czy nie. – zaznacza Jennifer Belissent, główna strateg ds. danych w Snowflake. – Na szczęście, teraz, gdy przyszłość jest teraźniejszością, dyskusja stała się mniej dramatyczna, a bardziej praktyczna pod względem proponowanych rozwiązań. W większości przypadków nie chodzi o zakazywanie sztucznej inteligencji, a o tworzenie polityk zmniejszających ryzyko i wdrażanie mechanizmów edukacyjnych oraz egzekwujących odpowiednie zasady. Posługując się analogią do prowadzenia samochodu, mówimy o ograniczeniach prędkości, pasach bezpieczeństwa, a także o edukacji kierowców. Zwolennicy odpowiedzialnego rozwoju AI przyjmują podobne podejście: nie zakazujmy technologii AI. Stwórzmy ramy i zasady, które zapewnią odpowiedzialne korzystanie i minimalizację ryzyka.
Odpowiednie zasady na swoim miejscu
Mimo szumu medialnego i licznych niepokojących informacji, nie wszystko jest tak ponure, jak się wydaje. Modele sztucznej inteligencji znacząco usprawniły procesy i zwiększyły produktywność w różnych dziedzinach – od wykrywania raka piersi po redukcję odpadów i wiele innych obszarów. Aby przeciwdziałać bardziej szkodliwym skutkom, organizacje na całym świecie publikują wytyczne, a rządy wprowadzają nowe regulacje, takie jak unijne rozporządzenie regulujące sztuczną inteligencję (AI Act). Dostawcy technologii rozwijają narzędzia zwiększające przejrzystość i możliwość wyjaśniania działania AI. To pierwszy krok nie tylko w kierunku identyfikacji i potencjalnego zniwelowania ryzyk, ale także edukacji użytkowników, by byli bardziej świadomi oraz programistów, aby zwracali większą uwagę na potencjalne skutki tych technologii.
– Kolejnym pozytywnym aspektem jest międzynarodowa współpraca. Podejścia do AI różnią się w zależności od regionu: w Chinach wprowadza się bardziej rygorystyczną kontrolę, w USA stosuje się podejście oparte na samoregulacji, a wytyczne UE w ramach AI Act opierają się na ocenie ryzyka, stanowiąc kompromis. Poza tym, podpisana w Wielkiej Brytanii rok temu Deklaracja z Bletchley stanowi dowód wspólnego uznania ryzyka oraz zainteresowania i zaangażowania we współpracę na rzecz zwiększenia świadomości i bezpieczeństwa w zakresie AI. – podkreśla Jennifer Belissent, główna strateg ds. danych w Snowflake. – Oprócz regulacji rządowych i branżowych, kluczowe znaczenie ma zarządzanie sztuczną inteligencją i danymi w ramach organizacji. Aby lepiej zrozumieć i ograniczyć ryzyka związane z AI, każdy – od najniższego do najwyższego szczebla – powinien posiadać wiedzę na temat danych i AI. Powinni wiedzieć, w jaki sposób dane są wykorzystywane, jaką wartość przynoszą, jakie potencjalne zagrożenia mogą się pojawić oraz jaka jest ich rola w tym procesie. W bardziej technicznych lub praktycznych obszarach firmy potrzebują szczegółowych polityk dotyczących dostępu i użytkowania danych, aby zapewnić ich odpowiednią ochronę i właściwe wykorzystanie. Każdy w organizacji odgrywa rolę w łańcuchu wartości – od dokładnego zbierania danych, przez ich ochronę, po tworzenie algorytmów i aplikacji analizujących oraz podejmowanie decyzji na podstawie uzyskanych wniosków.
Solidna baza danych dla osiągnięcia celów związanych z AI
Jak wiadomo, nie da się zrealizować strategii AI bez strategii danych, a przede wszystkim – bez odpowiednich danych. Większa ilość i różnorodność zasobów, nie tylko zasilają modele AI, ale również zmniejszają ryzyko tzw. halucynacji, czyli sytuacji, gdy systemy sztucznej inteligencji dostarczają nieprawdziwe odpowiedzi, lub uprzedzeń, gdzie wyniki nie są obiektywne czy neutralne. Modele AI zazwyczaj nie „zmyślają” odpowiedzi, ale mogą korzystać z niezaufanych źródeł. W szczególnie wymagającym środowisku biznesowym zróżnicowane, odpowiednie i wysokiej jakości dane są kluczowym elementem.
– Na szczęście AI sama zaczyna rozwiązywać problemy związane z jakością danych. Automatyzacje oparte na AI mogą wykrywać anomalie, naprawiać dane na etapie ich wprowadzania, eliminować niespójności i generować dane syntetyczne. AI pomaga również w zapewnieniu bezpieczeństwa, identyfikując potencjalne luki w zabezpieczeniach. Jednak odpowiedzialne podejście do danych i AI wymaga czegoś więcej. Kluczową rolę odgrywa tu solidne zarządzanie danymi oraz wykorzystanie rozwiązań chroniących prywatność. – zwraca uwagę Jennifer Belissent. – Dane powinny być dostosowane do konkretnego przypadku. To właśnie pod tym względem AI dla firm różni się od standardowych narzędzi sztucznej inteligencji. Model AI do użytku w organizacji jest wybierany, aby sprostać konkretnym wyzwaniom, takim jak przewidywanie sprzedaży, rekomendowanie produktów lub usług, wykrywanie wad w produkcji, czy opóźnień w łańcuchu dostaw. Decyzja o wyborze modelu AI, czy to poprzez jego stworzenie, zakup, czy dostosowanie, pomaga ograniczyć ryzyko błędnych wyników lub uprzedzeń. AI dla biznesu jest zaprojektowana w celu realizacji określonych zadań, dzięki czemu jest bardziej wydajna pod względem wykorzystania zasobów.
W kierunku bardziej zrównoważonej sztucznej inteligencji
AI ma potencjał, aby znacząco wpłynąć na obszary związane z klimatem, optymalizując wykorzystanie paliw kopalnych i przyspieszając transformację w kierunku odnawialnych źródeł. Jednak sama sztuczna inteligencja zużywa ogromne ilości energii. Badania wskazują, że ChatGPT obecnie wykorzystuje ponad pół miliona kilowatogodzin energii elektrycznej dziennie, co odpowiada zużyciu w niemal 180 000 amerykańskich gospodarstw domowych. Nadszedł czas, by wykorzystać sztuczną inteligencję do opracowania rozwiązań, które zmniejszą jej własne zapotrzebowanie na energię.
– Z punktu widzenia najlepszych praktyk, firmy muszą znaleźć równowagę między eksplorowaniem nowych zastosowań AI a ich odpowiedzialnym i celowym wykorzystaniem, które przynosi rzeczywisty zwrot z inwestycji. Wdrożenie AI w przedsiębiorstwach za pomocą wyspecjalizowanych, efektywnie wytrenowanych agentów to pierwszy krok, a przejrzystość w całym łańcuchu wartości – od wejściowych zasobów, poprzez procesy, aż po rezultaty – pozwala lepiej zrozumieć wpływ na środowisko i kompromisy podejmowane w dążeniu do wartości biznesowej. – podkreśla główna strateg ds. danych w Snowflake.
Bezpieczniejsza przyszłość AI zaczyna się teraz
Promowanie otwartego dialogu i postępów w zakresie transparentności sztucznej inteligencji, a w przyszłości dokładnego jej zrozumienia, to kluczowe kroki w ograniczaniu związanego z nią ryzyka. Obiecujące są już inicjatywy, takie jak globalny szczyt poświęcony AI, którego efektem jest Deklaracja z Bletchley.
– Zwiększanie świadomości w firmach na wszystkich szczeblach oraz wśród konsumentów poszerza grupę potencjalnych „strażników” i wyposaża ich w narzędzia do rozpoznawania zagrożeń oraz zadawania właściwych pytań. Jak to mówią, najlepszym nauczycielem jest doświadczenie. – dodaje Jennifer Belissent, główna strateg ds. danych w Snowflake. – Te doświadczenia można wykorzystać do lepszego zrozumienia i określenia wymagań wobec platform danych i AI przyszłości. Wymagania te obejmą kwestie, takie jak różnorodność danych, bezpieczeństwo, zarządzanie i zrównoważony rozwój. Jednak prawdziwym kluczem do bardziej bezpiecznej sztucznej inteligencji będzie głębsze zrozumienie – zarówno jej pozytywnego, jak i negatywnego potencjału, wynikające z większej świadomości społecznej na temat danych i AI.