Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Pracownicy masowo i nieświadomie ujawniają wrażliwe dane

Dynamicznie rośnie ilość danych wprowadzanych do narzędzi generatywnej sztucznej inteligencji przez pracowników. W okresie od marca 2023 do marca 2024 wzrost ten był blisko sześciokrotny (485 proc.).

Jak wynika z badania Cyberhaven Labs, pracownicy najczęściej używają narzędzia AI z prywatnych kont, co może być dla organizacji sporym zagrożeniem, bo ponad ¼ informacji wprowadzanych do tych aplikacji to dane wrażliwe. 

Wraz z rosnącą popularnością narzędzi AI coraz więcej pracowników wykorzystuje je w realizacji zawodowych zadań. Jednocześnie jest to tykająca bomba, bo najczęściej konta, z których korzystają pracownicy, to konta prywatne, funkcjonujące poza kontrolą działu IT. Narzędzia LLM (Large Language Model) działają w ten sposób, że informacje, jakie są do nich wprowadzane, są przez nie wchłaniane do bazy danych. A duża część z nich to dane wrażliwe lub takie, które nie powinny nigdy wypłynąć poza organizację. 

 

Niekontrolowany przepływ informacji 

Cyberhaven Labs przeanalizował wzorce korzystania z narzędzi generatywnej sztucznej inteligencji przez 3 miliony pracowników. W ciągu 12 miesięcy, od marca 2023 do marca 2024 ilość danych korporacyjnych wprowadzanych przez pracowników do narzędzi AI wzrosła o 485 proc. W 96 proc. pracownicy korzystają z narzędzi technologicznych gigantów, czyli OpenAI, produktów Google oraz Microsoft.  

Jeśli chodzi o pracowników-użytkowników narzędzi AI, najczęściej są to przedstawiciele firm technologicznych. W marcu tego roku blisko co czwarty pracownik (23,6 proc.) z branży technologicznej wprowadził dane firmowe do narzędzia AI. Pracownicy ci znacznie częściej niż inni umieszczali dane w narzędziach AI (ponad 2 mln zdarzeń na 100 tys. pracowników) i je stamtąd kopiowali (1,7 mln zdarzeń na 100 tys. pracowników). Poza tym z narzędzi generatywnej sztucznej inteligencji korzystali pracownicy sektora mediów i rozrywki (5,2 proc.), finansów (4,7 proc.) oraz firm farmaceutycznych (2,8 proc)

 

Niekontrolowany przepływ informacji 

Cyberhaven Labs przeanalizował wzorce korzystania z narzędzi generatywnej sztucznej inteligencji przez 3 miliony pracowników. W ciągu 12 miesięcy, od marca 2023 do marca 2024 ilość danych korporacyjnych wprowadzanych przez pracowników do narzędzi AI wzrosła o 485 proc. W 96 proc. pracownicy korzystają z narzędzi technologicznych gigantów, czyli OpenAI, produktów Google oraz Microsoft.  

Jeśli chodzi o pracowników-użytkowników narzędzi AI, najczęściej są to przedstawiciele firm technologicznych. W marcu tego roku blisko co czwarty pracownik (23,6 proc.) z branży technologicznej wprowadził dane firmowe do narzędzia AI. Pracownicy ci znacznie częściej niż inni umieszczali dane w narzędziach AI (ponad 2 mln zdarzeń na 100 tys. pracowników) i je stamtąd kopiowali (1,7 mln zdarzeń na 100 tys. pracowników). Poza tym z narzędzi generatywnej sztucznej inteligencji korzystali pracownicy sektora mediów i rozrywki (5,2 proc.), finansów (4,7 proc.) oraz firm farmaceutycznych (2,8 proc).   

 

Jakie dane są wprowadzane?  

Badanie Cyberhaven Labs uwzględniło także typ danych wprowadzanych do narzędzi AI przez pracowników. Najbardziej popularnym typem danych wrażliwych umieszczanych w narzędziach AI są informacje związane z obsługą klienta (16,3 proc. danych wrażliwych), która obejmuje poufne treści od klientów zgłaszających swoje problemy. Inne to kod źródłowy (12,7 proc.), materiały badawczo-rozwojowe (10,8 proc.), dokumentacja dotycząca pracowników (3,9 proc.) i dane finansowe (2,3 proc.).  

Największy problem to zasilanie narzędzi AI danymi dotyczącymi organizacji poprzez prywatne konta pracowników. Okazuje się, że aż 82,8 proc. dokumentów prawnych umieszczanych przez pracowników w narzędziach AI trafia tam w ten sposób. Może to doprowadzić do wykorzystania danych firmowych w potencjalnie niebezpieczny sposób. Przykład? 3,4 proc. materiałów badawczo-rozwojowych stworzonych w marcu br. pochodziło z narzędzi AI. Co, jeśli na ich podstawie zostanie przyznany jakiś patent? W tym samym okresie 3,2 proc. kodu źródłowego wygenerowały narzędzia IA, co z kolei może budzić niepokój pod kątem bezpieczeństwa. Narzędzia AI odpowiadają już za 3 proc. grafik i projektów, co z kolei może wiązać się z naruszeniami praw autorskich i znaków towarowych. 

 

Potrzeba procedur i szkoleń 

Wraz z popularyzacją korzystania z narzędzi coraz bardziej istotne stają się prywatność, transparentność i odpowiedzialność. – Rzeczywistość wyprzedza regulacje i legislacje. Sztuczna inteligencja to dla nas cały czas nowość – tłumaczy Natalia Zajic. – Najbardziej paląca potrzeba na dziś to stworzenie własnych, wewnętrznych regulaminów oraz zadbanie o szkolenia dla pracowników. To najlepsza droga, aby nowe technologie mogły być korzyścią, a nie potencjalnym zagrożeniem.

Narzędzia AI mogą być dla firm i instytucji ogromnym wsparciem, ale potrzebują one jasnych zasad, które zapewnią im bezpieczeństwo. To bardzo pilna sprawa, bo zgodnie z omawianym raportem popularność sztucznej inteligencji wzrosła tak szybko, że przeciętny pracownik umieszcza dziś więcej danych korporacyjnych w narzędziach AI w sobotę lub niedzielę niż w środku tygodnia pracy rok temu.