Możliwości sztucznej inteligencji są duże, ale aby w pełni wykorzystać potencjał AI, musimy mieć do niej pełne zaufanie.

Sztuczna inteligencja mocno zmieni świat i z pewnością może uczynić go lepszym dla każdego z nas. Jednak, aby w pełni wykorzystać potencjał tej nowej technologii, musimy dołożyć wszelkich starań, aby zarówno każdy z nas oraz firmy miały do AI pełne zaufanie.

Pojawienie się sztucznej inteligencji było prawdziwym przełomem. Tak jak napędy parowe i elektryczność zapoczątkowały erę przemysłową, tak AI jest wiodącą technologią nowej ery cyfrowej. AI może pomóc firmom w lepszym i bardziej zrównoważonym rozwoju, ale jak to bywa w przypadku każdej nowej technologii, pojawiają się pytania i obawy. Zarówno eksperci, jak i opinia publiczna nie mają pewności, w jaki sposób sztuczna inteligencja podejmuje decyzje, jakie informacje wykorzystuje, na ile jest obiektywna i sprawiedliwa? Zatem w jaki sposób mierzyć i porównywać prace różnych systemów sztucznej inteligencji w tych kwestiach i jak regulować tę technologię?

 

„W ciągu ostatnich lat firmy polegają na coraz większej liczbie decyzji podejmowanych przez AI. Na przykład w ramach wyboru talentów, przetwarzania roszczeń ubezpieczeniowych, obsługi klienta oraz innych ważnych procesów biznesowych. Jednak dla wielu firm sztuczna inteligencja to wciąż duża niewiadoma. Brakuje narzędzi oraz umiejętności, aby odpowiedzialnie nią zarządzać. Jednocześnie zarówno klienci, jak i firmy chcą móc obdarzyć tę nową technologię pełnym zaufaniem.” – podkreśla Piotr Beńke, dyrektor ds. technologii, IBM Polska i Kraje Bałtyckie.

 

Według badania IBM Global AI Adoption Index, 91 procent firm korzystających obecnie ze sztucznej inteligencji uważa, że podejmowanie decyzji z możliwością wyjaśnienia jest istotną cechą rozwiązań AI. W innej ankiecie czterech na pięciu respondentów stwierdziło, że etyka AI powinna być kwestią poruszaną na poziomie zarządów firm.

Ustalanie zasad

Dbałość o przejrzystość działania sztucznej inteligencji jest obowiązkiem producentów i użytkowników systemów AI oraz organów publicznych, odpowiedzialnych za tworzenie prawa. I rzeczywiście, Unia Europejska oraz wiele krajów na świecie już opracowuje strategie i zasady dotyczące AI. Na przykład IBM, współpracuje z przedstawicielami rządów i instytucji publicznych, a jednocześnie opracowuje praktyczne podejście do etycznych aspektów AI. Eksperci IBM zdefiniowali pięć kluczowych cech niezbędnych do stworzenia zaufanej sztucznej inteligencji. To dający się zrozumieć, uczciwy, solidny, przejrzysty i prywatny system. Takie cechy są nie tylko stosowane w firmowych rozwiązaniach AI, ale mogą również posłużyć jako reguły obowiązujące w całej branży.

 

„Przykładem praktycznego zastosowania tych zasad jest AI FactSheet – koncepcja, którą IBM wprowadził kilka lat temu. Podobnie jak w przypadku etykiet żywieniowych dla produktów spożywczych, taki arkusz informacyjny mógłby zawierać wygenerowane informacje o działaniu AI, dane szkoleniowe, podstawowe algorytmy, konfigurację i wyniki testów, wzorce wydajności, kontrole uczciwości i odporności, jego przeznaczenie, a także informacje o pracach serwisowych i ponownych treningach AI. Tego rodzaju narzędzia będą bardzo potrzebne, ponieważ powinien istnieć łatwy sposób systematycznego i zrozumiałego pomiaru, jak również informowania o poziomach funkcjonowania danego systemu AI.” – zaznacza dyrektor ds. technologii, IBM Polska i Kraje Bałtyckie.

 

Wspólne działania

Rozwój na dużą skalę sztucznej inteligencji, której można zaufać, jako wyzwanie wykracza poza możliwości całej branży, nie wspominając o poszczególnych firmach. Dlatego, poza inicjatywami branżowymi, również decydenci na całym świecie opracowują strategie i polityki dotyczące AI. Na przykład Watykan w 2020 roku ogłosił „Wezwanie Rzymu do etyki w AI„, którego IBM był jednym z pierwszych sygnatariuszy. Niedawno Unia Europejska przedstawiła swoje kompleksowe regulacje dotyczące AI, które mają na celu ograniczenie potencjalnych zagrożeń związanych z tą technologią. Ważne jest jednak, aby polityka rządowa i regulacje zostały zaprojektowane w taki sposób, aby wzmocnić zaufanie do systemów AI bez tłumienia innowacji lub ograniczania potencjału tej technologii do uczynienia świata lepszym. Można by określić ramy oparte na ryzyku, takie jak propozycja IBM dotycząca Precyzyjnej Regulacji AI, w ramach, których branża i rządy współpracowałyby wokół systemu współregulacji, dostosowanego do przypadków użycia i poziomu ryzyka.

 

„Aby sztuczna inteligencja przyniosła korzyści wszystkim, zarówno biznesowi i każdemu z nas, wartości takie jak różnorodność, inkluzja społeczna i wspólna odpowiedzialność muszą zawsze być podstawą jej tworzenia i zaufanego działania. Teraz, gdy znajdujemy się w kluczowym momencie na drodze postępu, wypracowanie najlepszego sposobu wykorzystania sztucznej inteligencji w naszym codziennym życiu, wymaga zaangażowania wszystkich możliwych stron.” – dodaje Piotr Beńke.

 

Cisco uznane liderem rynku w dziedzinie usług reagowania na incydenty związane z cyberbezpieczeństwem w najnowszym raporcie IDC.