Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Naukowcy ostrzegają: AI może narazić twój portfel kryptowalutowy

Agenci AI z fałszywymi wspomnieniami mogą zagrażać finansom użytkowników. I to poważnie. Tak przynajmniej wynika z badań amerykańskich naukowców. 

Naukowcy z Uniwersytetu Princeton alarmują o poważnych, wciąż niedostatecznie zbadanych zagrożeniach związanych z bezpieczeństwem agentów AI. W nowo opublikowanym artykule zatytułowanym „Real AI Agents with Fake Memories: Fatal Context Manipulation Attacks on Web3 Agents” badacze pokazują, jak stosunkowo proste ataki mogą prowadzić do poważnych strat finansowych użytkowników korzystających z agentów AI w środowisku Web3.

W świecie Web3, gdzie coraz więcej osób zleca agentom AI obsługę portfeli kryptowalutowych czy instrumentów finansowych online, potencjalne skutki takich ataków mogą być katastrofalne. Badacze z Princeton udowadniają, że nawet najnowsze zabezpieczenia przed atakami promptowymi – czyli próbami nakłonienia AI do łamania własnych reguł – okazują się nieskuteczne wobec nowego typu zagrożenia: manipulacji kontekstem poprzez „fałszywe wspomnienia”. W artykule opisano tzw. „Context Manipulation Attack” – technikę, w której atakujący wprowadza do pamięci agenta AI spreparowane informacje, prowadząc do błędnych decyzji, takich jak przekierowanie transferów finansowych. Co więcej, te fałszywe wspomnienia mogą przetrwać wiele interakcji i działać niezależnie od platformy, na której pracuje AI.

Badanie pokazuje przykład działania tego typu ataku na frameworku ElizaOS – systemie agentów AI zaprojektowanych do jednoczesnej interakcji z wieloma użytkownikami. Wystarczy jeden złośliwy uczestnik, by cały system został narażony. „Konsekwencje tej podatności są szczególnie groźne, ponieważ agenci ElizaOS polegają na współdzielonych danych kontekstowych” – wyjaśniają badacze.

W dobie rosnącego wykorzystania AI do podejmowania działań (a nie tylko udzielania porad), ostrzeżenie naukowców z Princeton może okazać się istotnym sygnałem dla branży – szczególnie w sektorze finansowym i Web3, gdzie zaufanie do autonomicznych systemów ma kluczowe znaczenie.