Etyczna Sztuczna Inteligencja – oksymoron czy konieczność? – Ekspert Microsoft odpowiada czy rozwiązania technologiczne wykorzystujące sztuczną inteligencję (SI) mogą działać w sposób etyczny?
Etyczna Sztuczna Inteligencja – oksymoron czy konieczność? – Piotr Marczuk, Członek Zarządu, Dyrektor Polityki Korporacyjnej w polskim oddziale Microsoft odpowiada czy rozwiązania technologiczne wykorzystujące sztuczną inteligencję (SI) mogą działać w sposób etyczny? Czy rozwiązania technologiczne wykorzystujące sztuczną inteligencję (SI) mogą działać w sposób etyczny? Czy jest to zbitka pojęć ze sobą sprzecznych, czy też stoimy przed koniecznością „ucywilizowania” sztucznej inteligencji i zbudowania kapitału zaufania do niej, jeśli chcemy czerpać z korzyści jakie ta technologia ze sobą niesie?
W dzisiejszym świecie zaawansowanych technologii informatycznych – w świecie chmury, wielkich zbiorów danych, danych osobowych takich jak nasze domowe IP, geolokalizacja porannego biegu czy zapis snu ze smartwatcha czy w końcu w świecie coraz powszechniejszych rozwiązań opartych o mechanizmy wykorzystujące zaawansowane algorytmy samouczące się – słowo „zaufanie” nabiera podstawowego znaczenia. Zaufanie użytkownika do konkretnego rozwiązania technologicznego, które pomaga mu skutecznie realizować określone zadanie, lub osiągać określone cele to jeden z podstawowych wymiarów. Natomiast wymiarem złożonym – jest generalne zaufanie do technologii informatycznych i ich długofalowych skutków społecznych i ekonomicznych. Takie zaufanie może być budowane na poziomie społecznym, środowiska biznesowego czy aparatu państwowego. Takim zaufaniem dzisiaj cieszy się sektor bankowy, ochrony zdrowia czy obronny. A w związku z tym, że technologie informatyczne wkraczają w każdy lub prawie każdy wymiar naszego życia i funkcjonowania w rodzinie, społeczeństwie, gospodarce czy grupie znajomych i przyjaciół, budowanie zaufania do nich jest tak istotne. I pewnie podobnie, jak w innych sferach naszego życia, jest to proces powolny i mozolny a utrata zaufania może nastąpić nagle i bardzo szybko vide case Cambridge Analytica.
Trudność budowania zaufania w kontekście technologii sztucznej inteligencji dodatkowo polega na tym, iż użytkownik nie do końca albo prawie w ogóle nie zna mechanizmu działania takich rozwiązań, a dostawca rozwiązania nie jest w stanie wyjaśnić użytkownikowi „jak to działa”. Nie ze złej woli a z powodu złożoności technologicznej takich rozwiązań. Powstaje pytanie – jak budować i wdrażać takie skomplikowane i „niewyjaśnialne” rozwiązania oparte o sztuczną inteligencję, aby mimo wszystko budować zaufanie ich odbiorcy a nie przestrach, obawę, i rezerwę przed ich wykorzystaniem? Odpowiedzią jest oparcie się na zasadach etycznych zakorzenionych w ponadczasowych wartościach. Programiści i zespoły opracowujące oraz wdrażające rozwiązania wykorzystujące sztuczną inteligencję w Microsoft kierują się sześcioma kluczowymi zasadami, które są na tyle uniwersalne i generalne, że mogą być kompasem w odpowiedzialnym tworzeniu technologii a tym samym wspierać budowanie zaufania do nich.
Te zasady to: sprawiedliwość, pewność i ochrona, prywatność i bezpieczeństwo, włączenie, transparentność i odpowiedzialność.
- Rozwiązania wykorzystujące SI powinny w sposób podobny i sprawiedliwy traktować podobne jednostki, innymi słowy nie działać w nieuzasadniony sposób stronniczo w stosunku do podobnych przypadków. Tego rodzaju równoważne lub sprawiedliwe podejście powinno przyświecać twórcom na wszystkich poziomach tworzenia rozwiązań od momentu projektowania algorytmów, poprzez uczenie na zbalansowanych i reprezentatywnych zbiorach danych, aż do uważnego stosowania konkretnych zmiennych wpływających na wynik końcowy.
- Pewność i ochrona to zasady mówiące o tym, iż rozwiązania wykorzystujące SI powinny działać identycznie niezależnie od tego czy działają w warunkach optymalnych, czy też w warunkach niekorzystnych lub np. w przypadku cyberataku. Przykładowo – jeśli dany system SI polega na wykrywaniu obiektów uszkodzonych, powinien móc wypełniać swoje funkcje w warunkach pogorszonego oświetlenia, lub przerwać swoje działanie, gdy to oświetlenie pogorszy się do określonego poziomu.
- Prywatność i bezpieczeństwo to zasady, które na przestrzeni ostatnich kilku lat stały się bardzo popularne i edukacja społeczeństwa w tych tematach bardzo przyspieszyła. Tym bardziej w przypadku rozwiązań wykorzystujących SI, gdzie mogą w grę wchodzić olbrzymie ilości danych osobowych kwestie zabezpieczeń przed cyber-atakami i właściwe podejście do ochrony prywatności już na etapie projektowania są bezdyskusyjne. W debacie nad koniecznością lub brakiem konieczności regulowania SI czasami zapominamy, że już dzisiaj wszelkie regulacje dotyczące danych osobowych jak najbardziej odnoszą się do wszelkich rozwiązań opartych o SI.
- Kolejną zasadą jest włączanie – inkluzywność – czyli tworzenie rozwiązań, które mogą być wykorzystane przez jak najszerszą grupę odbiorców włączając w to osoby niepełnosprawne. Tworzenie takich rozwiązań powinno się odbywać biorąc pod uwagę potrzeby użytkowników, ich oczekiwania i kontekst w jakim dane narzędzia informatyczne mają wspierać ludzi w ich działaniach. Tak samo jak dzisiaj powinniśmy dbać o wdrażanie podstawowego standardu dostępności stron internetowych – WCAG 2.0, tak też w przyszłych rozwiązaniach opartych o SI ich projektanci powinni pamiętać o jak najszerszym spektrum użytkowników wykorzystujących te rozwiązania do swoich potrzeb.
- Transparentność – sposób działania rozwiązań wykorzystujących SI powinien być zrozumiały dla użytkowników. Nie mówimy tutaj o dogłębnym zrozumieniu i szczegółowej technologicznej wiedzy każdego użytkownika, gdyż taki poziom zrozumienia jest po prostu niemożliwy. Dziś nawet jeżdżąc samochodem większość kierowców nie jest w stanie precyzyjnie określić, jak poszczególne części auta działają dając na wyniku ruch pojazdu. Wiemy, że potrzebujemy paliwa, znamy podstawowe zasady kierowania i ruchu na drodze, natomiast jakie konkretnie reakcje zachodzą w silniku i które podzespoły w jakim momencie wchodzą ze sobą w interakcję – to już jest wiedza fachowa. Podobnie z systemami opartymi o SI – nie da się szczegółowo wyjaśnić w konkretnym przypadku sposobu działania algorytmów w postaci głębokich sieci neuronowych, można zaś opisać zasób danych, na bazie których działania są przeprowadzane i podstawowe warunki czy zmienne, które mogą mieć wpływ na wynik końcowy. Niemniej, aby budować zaufanie do takich rozwiązań konieczne jest wypracowanie metod wyjaśniania sposobu ich działania na odpowiednim poziomie ogólności.
- Na koniec zasada odpowiedzialności – za konkretne rozwiązanie informatyczne odpowiedzialny jest człowiek, który je stworzył i wdrożył. Zasady odpowiedzialności za produkt czy usługę powinny być tutaj podobne do innych obszarów ludzkiej działalności jak chociażby w ochronie zdrowia czy w obszarze poszanowania prywatności. Odpowiedzialnością twórcy jest również okresowe sprawdzanie czy dane rozwiązanie przetrzymuje próbę czasu, czy nie pojawiają się nowe uwarunkowania, które mogą zaburzyć poprawne działanie danego produktu czy usługi opartej o SI.
W organizacjach biznesowych dobrą praktyką powinno być powoływanie wewnętrznych zespołów mających za zadanie wdrażanie powyższych zasad do praktyki tworzenia i wdrażania wszelkich rozwiązań wykorzystujących SI, jak również reagowanie w przypadkach, kiedy wykorzystanie danego rozwiązania może podważyć zaufanie do technologii lub może narazić na szwank dobro użytkownika.
W Microsoft takim wewnętrznym komitetem czy też komisją jest AETHER – Komisja ds. SI i Etyki w Inżynierii i Badaniach. W zespole tym pracują inżynierowie, naukowcy, konsultanci i prawnicy, którzy skupiają się na tworzeniu wewnętrznych polityk, wytycznych i dobrych praktyk w zakresie tworzenia i wdrażania SI a także reagują w sytuacjach spornych. Powyższy opis prowadzi do jednoznacznej konkluzji – podążanie za podstawowymi zasadami etycznymi w procesie tworzenia i wdrażania rozwiązań SI to konieczność. Jest to pierwszy stopień oceny czy dane produkty lub usługi nie niosą ze sobą istotnych zagrożeń społecznych w postaci niesprawiedliwego traktowania odbiorcy, bądź w postaci wykluczenia i niedostępności rozwiązania dla np. osób o konkretnym kolorze skóry, w końcu rozwiązań, które w rękach innych organizacji lub państw mogą służyć niszczeniu praw i wolności obywatelskich. Kolejnym stopniem zaawansowania naszego myślenia o przyszłym wpływie SI na rzeczywistość społeczną i gospodarczą będą niewątpliwie nowe prawa regulujące powstawanie i wdrażanie takich technologii.
Kiedy to nastąpi?