Cisco ogłosiło, że wszyscy użytkownicy rozwiązań Cisco Secure Endpoint i Email Threat Protection są teraz chronieni przed złośliwymi komponentami w łańcuchu dostaw AI, niezależnie od tego, z jakiego źródła są one pobierane

Niedawne pojawienie się zaawansowanych modeli AI, takich jak DeepSeek, skłoniło wiele firm do blokowania do nich dostępu zgodnie z politykami bezpieczeństwa. Z jednej strony specjaliści ds. sztucznej inteligencji chętnie korzystają z darmowych modeli, aby przyspieszyć rozwój i wprowadzać innowacje. Z drugiej – zespoły ds. bezpieczeństwa stoją przed wyzwaniem kontrolowania dostępu do zasobów pochodzących z niezaufanych źródeł, które mogą stanowić zagrożenie. W efekcie organizacje muszą skupić się na budowaniu i utrzymywaniu zaufania do łańcucha dostaw AI.
W związku z powyższym, Cisco ogłosiło, że wszyscy użytkownicy rozwiązań Cisco Secure Endpoint i Email Threat Protection są teraz chronieni przed złośliwymi komponentami w łańcuchu dostaw AI, niezależnie od tego, z jakiego źródła są one pobierane.
Bezpieczeństwo łańcucha dostaw AI
Organizacje obawiają się różnych zagrożeń związanych z AI, takich jak ataki typu prompt injection czy jailbreaki, a ich pierwszą reakcją jest zabezpieczenie łańcucha dostaw AI. Zespoły Machine Learning napotykają poważne wyzwanie: działy bezpieczeństwa często całkowicie blokują dostęp do platform takich jak Hugging Face, co ogranicza wykorzystanie modeli open source. Z jednej strony brak dostępu do innowacyjnych rozwiązań może skutkować opóźnieniem w rozwoju, ale z drugiej strony obawy dotyczące potencjalnie szkodliwych modeli są w pełni uzasadnione.
Bezpieczeństwo łańcucha dostaw AI obejmuje praktyki i środki ochrony przedsiębiorstw oraz aplikacji na każdym etapie tworzenia i wdrażania AI. Obejmuje to zabezpieczenie stosów oprogramowania, danych treningowych oraz modeli zewnętrznych przed różnymi podatnościami, takimi jak luki w oprogramowaniu, błędy deserializacji, backdoory, czy ataki polegające na zatruciu danych i modeli.
„Zabezpieczenie łańcucha dostaw AI to nie tylko konieczność techniczna – to fundament zaufania do technologii. Organizacje na całym świecie zdają sobie sprawę, że ochrona łańcucha dostaw ma kluczowe znaczenie dla zapewnienia bezpieczeństwa zarówno systemów AI, jak i tradycyjnych środowisk IT. W Cisco angażujemy się w wyznaczanie standardów w tej dziedzinie, dostarczając zaawansowane zabezpieczenia przeciwko nowym zagrożeniom. Dzięki temu mamy pewność, że wszelkie innowacje zostają wprowadzone zawsze w trosce o najwyższy poziom bezpieczeństwa” – podkreślił Omar Santos, Distinguished Engineer w Cisco oraz współprzewodniczący Koalicji na rzecz Bezpiecznej AI.

Trzy filary bezpieczeństwa łańcucha dostaw AI
1. Bezpieczeństwo oprogramowania
Bezpieczeństwo oprogramowania w kontekście łańcucha dostaw AI jest odpowiedzią na wyzwania w kilku kluczowych obszarach:
- luki w bibliotekach oprogramowania, które mogą narazić system na ataki,
- niezaufane repozytoria, w tym te złośliwie skonfigurowane na platformach takich jak Hugging Face,
- podatności w popularnych frameworkach AI, np. Langchain.
2. Bezpieczeństwo modeli
Modele AI niosą ze sobą unikalne zagrożenia bezpieczeństwa, w tym:
- wbudowane w pliki modelu złośliwe oprogramowanie,
- zależności od bibliotek z wykrytymi podatnościami (np. decompress),
- ukryte backdoory w architekturze modeli,
- modele, których zachowanie narusza polityki bezpieczeństwa organizacji.
3. Bezpieczeństwo danych
Bezpieczeństwo danych w AI koncentruje się na:
- możliwości zatruwania danych w procesie treningowym,
- odpowiedzialności za pochodzenie danych i modeli,
- zagadnieniach licencyjnych oraz zgodności modeli z regulacjami.
4. Wyzwania związane z bezpieczeństwem łańcucha dostaw AI
Organizacje stoją więc przed wieloma trudnościami w zakresie ochrony łańcucha dostaw AI:
- zespoły ds. bezpieczeństwa nie mogą polegać na ręcznym skanowaniu modeli,
- podatności modeli mogą narazić aplikacje na ataki, prowadząc do naruszeń bezpieczeństwa przedsiębiorstw,
- obecne procesy bezpieczeństwa często spowalniają innowacje i rozwój.
„Otwarte repozytoria, takie jak Hugging Face, to spore wyzwanie, ponieważ musimy mieć dostęp do walidacji zasobów, nad którymi pracujemy, ale jednocześnie stanowią one niekontrolowany zbiór potencjalnie złośliwych treści. Dostęp jest strategiczną koniecznością, ale równie ważne jest blokowanie wykorzystania szkodliwych rozwiązań” – zauważa Sarah Winslow, Dyrektor w PSEC Emerging Technologies & AI, Veradigm.
Ochrona Cisco Secure Endpoint dla AI
Cisco ogłosiło, że wszyscy klienci korzystający z rozwiązania Cisco Secure Endpoint automatycznie otrzymują ochronę przed złośliwymi składnikami AI pobieranymi z Hugging Face. Rozwiązanie zapewnia:
- automatyczne blokowanie znanych złośliwych plików przy operacjach odczytu/zapisu/modyfikacji,
- ochronę przed różnymi wektorami ataku, w tym pobraniami bezpośrednimi i dostawą przez kanały boczne (np. pliki ZIP w udostępnionych folderach),
- możliwość konfigurowania alertów lub kwarantanny.
Ponadto, Cisco rozszerzyło mechanizmy ochrony poczty e-mail, aby automatycznie blokować załączniki zawierające złośliwe elementy wykorzystywane w atakach AI. Ulepszone zabezpieczenia chronią przed pięcioma głównymi zagrożeniami:
- Lukami umożliwiającymi wykonanie złośliwego kodu.
- Lukami umożliwiającymi wykonanie komend systemowych.
- Zagrożeniami związanymi z sieciami i zdalnym dostępem.
- Problemami z serializacją i deserializacją.
- Manipulacjami interfejsem użytkownika i interakcjami webowymi.
Przyszłość bezpieczeństwa AI
Cisco nieustannie rozwija swoje rozwiązania w zakresie bezpieczeństwa AI. W ramach badań nad zagrożeniami dla AI, zespół Cisco AI Security Threat Research wdrożył zaawansowane narzędzia ochrony, w tym bazę AI Risk Database, opracowaną wspólnie z MITRE.
Bezpieczeństwo łańcucha dostaw AI to kluczowy element rozwoju nowoczesnych systemów. Organizacje nie muszą wybierać między bezpieczeństwem a innowacją – dzięki Cisco mogą korzystać z zaawansowanych modeli AI przy zachowaniu pełnej ochrony przed zagrożeniami.