Microsoft odda modele AI do testów rządowym instytutom w USA i Wielkiej Brytanii

Microsoft

Microsoft zawarł nowe porozumienia z amerykańskim Center for AI Standards and Innovation oraz brytyjskim AI Security Institute. Celem jest rozwój metod testowania zaawansowanych modeli sztucznej inteligencji, w tym ocena zabezpieczeń oraz ryzyk związanych z cyberatakami, przestępczym użyciem AI i bezpieczeństwem publicznym.

Firma podkreśla, że wewnętrzne testy nie wystarczą tam, gdzie w grę wchodzi bezpieczeństwo państwa. Dlatego Microsoft chce łączyć własne doświadczenie w budowie i wdrażaniu systemów AI na dużą skalę z wiedzą instytucji rządowych, które dysponują zapleczem technicznym, naukowym i eksperckim w obszarze bezpieczeństwa narodowego.

W USA Microsoft będzie współpracował z CAISI oraz NIST nad metodami oceny odporności modeli na nadużycia i nieoczekiwane zachowania. Chodzi między innymi o testy kontradyktoryjne, czyli takie, które celowo szukają słabych punktów systemu, możliwych ścieżek obejścia zabezpieczeń oraz scenariuszy awarii.

Microsoft porównuje ten proces do sprawdzania pasów, poduszek powietrznych i hamulców w samochodach. Celem nie jest jednorazowa kontrola, lecz stworzenie wspólnych ram, zbiorów danych i procedur, które pozwolą oceniać bezpieczeństwo, niezawodność i odporność modeli AI w sposób bardziej systematyczny.

W Wielkiej Brytanii współpraca z AISI obejmie badania nad bezpieczeństwem modeli frontier AI, oceną ich potencjalnie wysokiego ryzyka oraz skutecznością zabezpieczeń. Osobnym obszarem będą badania odporności społecznej, w tym analiza interakcji systemów konwersacyjnych z użytkownikami w sytuacjach wrażliwych.

 

Wyniki finansowe gigantów technologicznych. Alphabet, Microsoft i Amazon rosną dzięki chmurze i AI

 

Rządy chcą wcześniej widzieć ryzyka

Znaczenie tych porozumień wykracza poza sam Microsoft. Według Reutersa podobne ustalenia z amerykańskim rządem objęły także Google i xAI, które mają udostępniać modele do ocen bezpieczeństwa przed publicznym wdrożeniem.

To pokazuje, że testowanie sztucznej inteligencji coraz wyraźniej przesuwa się z poziomu deklaracji etycznych na poziom procedur, audytów i współpracy z państwem. Dla największych firm technologicznych może to oznaczać większą wiarygodność, ale także dodatkową presję regulacyjną. Dla administracji to z kolei sposób na wcześniejsze rozpoznawanie zagrożeń, zanim modele trafią do szerokiego użycia.

Microsoft zapowiada, że wnioski z prac z CAISI i AISI mają trafić bezpośrednio do procesu projektowania, testowania i wdrażania produktów. Firma wskazuje też na szerszą współpracę z innymi instytutami AI, Frontier Model Forum oraz MLCommons, które rozwijają narzędzia testowe, w tym rodzinę benchmarków AILuminate.

W praktyce stawką jest nie tylko bezpieczeństwo pojedynczych modeli, ale także zaufanie do całego rynku generatywnej AI. Im bardziej zaawansowane stają się systemy, tym większego znaczenia nabierają niezależne, powtarzalne i technicznie wiarygodne testy.