SAS rozszerza ofertę godnej zaufania sztucznej inteligencji o karty modeli i usługi zarządzania AI
SAS, lider technologii z obszaru danych i sztucznej inteligencji, wprowadza na rynek nowe produkty i usługi, które usprawnią zarządzanie AI i umożliwią budowanie wiarygodnych i transparentnych modeli. Karty modeli i nowe usługi AI Governance Advisory pomogą organizacjom poruszać się w dynamicznie zmieniającym się krajobrazie sztucznej inteligencji, ograniczając ryzyko i pomagając im pewniej realizować swoje cele z zakresu AI. SAS opracował również narzędzie Trustworthy AI Life Cycle Workflow, zgodne z zapisami Ram Zarządzania Ryzykiem AI amerykańskiego Narodowego Instytutu Standardów i Technologii (NIST).
Karty modeli: zapewnienie wiarygodnej AI
Przekształcenie czegoś tak złożonego i zaawansowanego, jak model AI, w produkt przystępny dla wszystkich, może być trudne. W związku z wprowadzanymi na całym świecie nowymi przepisami dotyczącymi wykorzystania sztucznej inteligencji, zdolność zrozumienia zasad działania modelu, a następnie udostępnienia tej wiedzy organom regulacyjnym, będzie miała kluczowe znaczenie. Karty modeli, nowa funkcja platformy SAS® Viya®, są pomocą dla twórców i użytkowników w ramach całego cyklu życia AI. Począwszy od dostawców oprogramowania po zarządy firm, wszyscy będą mogli zyskać wartość z narzędzia, które obsługuje zarówno modele własne, jak i open source.
Karty modeli AI to pojęcie związane z etyką i odpowiedzialnością w dziedzinie sztucznej inteligencji. Są rodzajem dokumentu, który opisuje m.in. charakterystykę i metodykę danego modelu sztucznej inteligencji. Celem kart jest zapewnienie przejrzystości i odpowiedzialności w stosowaniu algorytmów AI poprzez udostępnienie kluczowych informacji na temat sposobu działania danego modelu.
Karty modeli, które udostępnione będą w połowie 2024 r., najlepiej można opisać mianem etykiety właściwości dla modeli AI. Platforma SAS będzie automatycznie generowała, dla zarejestrowanych modeli AI, karty zawierające informacje pochodzące bezpośrednio z produktów SAS, dzięki czemu nie będą tym obciążeni poszczególni użytkownicy. W związku z tym, że platforma SAS Viya jest już wyposażona w architekturę do zarządzania oprogramowaniem open source, karty modeli będą również dostępne dla modeli otwartych, począwszy od tych stworzonych w języku Python.
Karty modeli będą zawierać informacje takie jak dokładność, uczciwość i dryf, czyli spadek wydajności modelu w związku ze zmianą warunków. Uwzględnią szczegóły związane z procesami zarządzania, takie jak data ostatniej modyfikacji, autorstwo danej kontrybucji i odpowiedzialność, umożliwiając organizacjom reagowanie na nieprawidłowe zachowania modelu. W sekcji dotyczącej wykorzystania modelu znajdą się informacje o zamierzonym przeznaczeniu, ograniczeniach i przypadkach użycia wykraczających poza przewidziany zakres.
„SAS prezentuje przemyślane podejście do wsparcia klientów w korzystaniu ze sztucznej inteligencji, koncentrując się na realiach i wyzwaniach związanych z wdrażaniem AI w rzeczywistych warunkach branżowych” – powiedział Eric Gao, dyrektor ds. badań w firmie analitycznej IDC. „Karty modeli będą bardzo pomocne w procesie monitorowania projektów AI i promowania przejrzystości” – dodał.
Nowa grupa ds. zarządzania AI pod kierunkiem lidera etycznej sztucznej inteligencji
Wraz z popularyzacją sztucznej inteligencji klientom SAS coraz bardziej zależy na wykorzystywaniu swoich danych w sposób produktywny, a jednocześnie bezpieczny. Aby im w tym pomóc firma uruchomiła AI Governance Advisory – nową usługę dla obecnych klientów.
SAS AI Governance Advisory pomoże klientom zrozumieć, jak zarządzać sztuczną inteligencją w ich organizacjach. Korzyści, jakie wynieśli klienci SAS, uczestniczący w pilotażu usługi, to m.in.:
- poprawa produktywności dzięki wiarygodnemu i rozproszonemu procesowi decyzyjnemu,
- większe zaufanie dzięki lepszej odpowiedzialności za wykorzystanie danych,
- zapewnienie odpowiedzialnych praktyk w zakresie wprowadzanych innowacji,
- zwiększenie przewagi konkurencyjnej dzięki gotowości na przyszłe zmiany i wyzwania,
- wzrost wartość marki w konfrontacji z potencjalnym wpływem na społeczeństwo i środowisko.
PZU – jedna z największych instytucji finansowych w Europie Środkowo-Wschodniej – jest wieloletnim klientem SAS. Firma wdraża sztuczną inteligencję w takich obszarach jak likwidacja szkód, sprzedaż, wykrywanie nadużyć i obsługa klienta.
„Nasze konsultacje z SAS na temat zarządzania sztuczną inteligencją pomogły nam zidentyfikować potencjalne słabe punkty, mogące powodować problemy dla klientów i naszej firmy” – powiedział Marek Wilczewski, Dyrektor Zarządzający ds. Zarządzania Informacją, Danymi i Analityką w Grupie PZU. „Widzimy, jak ważne jest posiadanie szerszej perspektywy, gdy rozpoczynamy projekty związane ze sztuczną inteligencją” – podkreślił.
Na stanowisko Global Head of AI Governance w SAS powołany został Steven Tiell, lider branży i ekspert ds. etycznej sztucznej inteligencji. Tiell w przeszłości kierował globalnym zespołem ds. etycznego wykorzystania danych i odpowiedzialnych innowacji w Accenture. Był też wiceprezesem ds. strategii AI w DataStax.
Oparcie w standardach
W ubiegłym roku amerykański Narodowy Instytut Standardów i Technologii (NIST) opublikował Ramy Zarządzania Ryzykiem AI. Dokument stał się dla wielu organizacji cennym narzędziem do projektowania rozwiązań wiarygodnej i odpowiedzialnej sztucznej inteligencji oraz zarządzania nimi w sytuacji braku oficjalnie obowiązujących przepisów.
Do katalogu NIST odwołuje się stworzone przez SAS narzędzie Trustworthy AI Life Cycle. Środowisko ułatwia organizacjom wdrażanie zaleceń NIST poprzez określenie indywidualnych ról i oczekiwań, zebranie wymaganej dokumentacji, wskazanie czynników wymagających rozważenia i wykorzystanie automatyzacji do przyśpieszenia wdrożenia. Organizacje otrzymują model produkcyjny z dokumentacją potwierdzającą, że dołożyły należytej staranności w budowie uczciwego modelu, a ich procesy nie powodują szkód.
Trustworthy AI Life Cycle pozwala organizacjom dokumentować wnioski w zakresie wpływu systemów AI na ludzkie życie. Zawiera działania mające zapewnić, że dane szkoleniowe dobrze reprezentują populację, której dotyczą oraz że przewidywania i wydajność modelu są podobne we wszystkich chronionych klasach. Celem tych działań jest uzyskanie pewności, że model nie spowoduje odmiennych skutków lub szkód dla określonych grup. Ponadto, dzięki możliwości tworzenia zadań human-in-the-loop, gdy wymagana jest interwencja człowieka, użytkownicy uzyskują pewność, że model pozostanie dokładny w miarę upływu czasu.