Sztuczna inteligencja zwiększy próby dezinformacji w roku wyborczym i może realnie wpłynąć na wyniki głosowań
Dezinformacja jest już dobrze ugruntowanym towarem w cyberprzestępczym podziemiu. Instytucje państwowe jednak szybko rozwijają swoje własne możliwości zwalczania jej. Wraz z udoskonalaniem technologii sztucznej inteligencji, pomoże to obniżyć barierę wejścia dla wielu innych złośliwych podmiotów, aby rozpocząć zakrojone na szeroką skalę i wyrafinowane działania związane z fałszywymi wiadomościami. Organizacje muszą znaleźć skuteczniejsze sposoby na złagodzenie zagrożenia.
Kampania z AI
Generatywna sztuczna inteligencja (GenAI) to potężna technologia zdolna do tworzenia przekonujących treści w wielu językach, sprawiających wrażenie, jakby zostały napisane przez człowieka. W ludzkiej naturze leży pokładanie zaufania w podobieństwach. Zatem osoba, która podziela nasz wygląd i styl komunikacji, wydaje się nam bardziej znajoma niż ktoś „obcy”.
Sztuczna inteligencja nie tylko angażuje się w rozmowę z nami, ale także ma możliwość tworzenia takich podobieństw. Weźmy na przykład ChatGPT, który potrafi autentycznie przyjmować dialekty. Dlatego też posiada zdolność płynnego zanurzenia nas w poczuciu koleżeństwa, podobnego do więzi, jaką chcielibyśmy mieć z naszymi przedstawicielami politycznymi.
Generowane przez sztuczną inteligencję deepfake’i, w których dźwięk (np. przez klonowanie barwy głosu) lub wideo są manipulowane w celu sfałszowania słów innej osoby, mogą sprawić, że takie kampanie będą jeszcze bardziej przekonujące i wszechobecne. Technologia ta była już wykorzystywana w oszustwach typu BEC (business email compromise) do nakłaniania kadry kierowniczej do dokonywania przelewów pieniężnych na polecenie swoich szefów. Można ją również wykorzystać do ominięcia weryfikacji tożsamości klienta, otwierając tym samym możliwość masowych oszustw, a także do podważenia zaufania do marki lub rozpowszechniania fałszywych promocji – zaznacza Michał Przygoda, ekspert Trend Micro.
Wyzwanie polega na tym, że ChatGPT i podobne do niego bezpłatne narzędzia zdemokratyzowały możliwość tworzenia takich kampanii. Dzięki ciężkiej pracy wykonanej za nich, twórcy fałszywych wiadomości mają więcej czasu na dopracowanie swoich wiadomości i pracę nad ich wzmocnieniem za pośrednictwem wielu kanałów, aby mogły rozpowszechnić się szeroko. Istnieje obawa, że wkrótce Internet zostanie przepełniony wysoce przekonującymi fałszywymi treściami, do tego stopnia, że odróżnienie fake’ów od faktów stanie się prawie niemożliwe.
Zbliża się czas wyborów
Dezinformacja zajmuje pierwsze miejsce w raporcie Światowego Forum Ekonomicznego (WEF) na temat globalnych zagrożeń w 2024 r. – jako najpoważniejsze ryzyko, przed którym stoją rządy, obywatele i organizacje w ciągu najbliższych dwóch lat. Zajmuje również drugie miejsce pod względem obecnego krajobrazu ryzyka, plasując się tuż za ekstremalnymi warunkami pogodowymi.
Ogromnym wyzwaniem będą zatem tegoroczne wybory w Stanach Zjednoczonych, Wielkiej Brytanii, Indiach, Unii Europejskiej, Pakistanie i wielu innych krajach. W przypadku każdego z tych krajów bardzo prawdopodobne są kampanie fałszywych wiadomości lub inne działania mające na celu wzbudzenie nieufności wobec konkretnej partii politycznej lub kandydata.
W niektórych przypadkach podmiot państwowy może po prostu chcieć podważyć wiarę w same wyniki, tworząc w ten sposób sytuację, w której ktokolwiek wygra, nie będzie postrzegany jako uczciwy i legalny zwycięzca. Ponownie, jeśli uda się wyprodukować i rozpowszechnić wystarczającą ilość fałszywych wiadomości z podobną narracją, może to mieć ogromny wpływ na nastroje wyborców. Niewykluczone, że takie historie mogą być pierwszymi, które znajdziemy podczas wyszukiwania najświeższych wiadomości – podkreśla Michał Przygoda.
Rosnące globalne ryzyko biznesowe
Eksperci Światowego Forum Ekonomicznego ostrzegają, że tego rodzaju chaos wyborczy może „pogłębić podziały społeczne i polityczne”, powodując zakłócenia oraz niepewność, których firmy nie znoszą. Poza tym istnieją jednak bardziej bezpośrednie zagrożenia dla organizacji. Oparte na sztucznej inteligencji kampanie deepfake i dezinformacyjne mogą teoretycznie wpływać na lojalność klientów i cenę akcji poprzez niszczenie reputacji marki. Możemy zobaczyć deepfake wideo przedstawiające CEO używającego rasistowskiego języka lub dzielącego się „tajnymi” szczegółami strategii biznesowej.
W okresie wzmożonych napięć geopolitycznych niektóre państwa mogą stać się wrogo nastawione do zagranicznych marek działających w ich kraju. Kampanie dezinformacyjne mogą być prowadzone w celu obarczenia takich organizacji odpowiedzialnością za poglądy polityczne rządzących w ich kraju ojczystym. Jeśli podmioty państwowe nie chcą brudzić sobie rąk takimi operacjami, istnieje wiele grup cyberprzestępczych i/lub haktywistów, do których można się zwrócić. Jak widać po inwazji Rosji na Ukrainę, istnieje wiele wysoce zmotywowanych osób i grup gotowych zaatakować „drugą stronę”, a teraz mają do tego narzędzia – przypomina Michał Przygoda.
Liderzy cyberbezpieczeństwa powinni zatem dodać dezinformację do wydłużającej się listy istotnych zagrożeń korporacyjnych, które muszą być monitorowane i zarządzane. Powinno się to zacząć od ochrony danych. Fałszywe wiadomości zawsze sprzedają się najlepiej, jeśli zawierają w sobie ziarno prawdy. Błędne informacje i dezinformacja mogą pewnego dnia stać się normą, a nie wyjątkiem. Nie brakuje narzędzi do ich tworzenia i nie ma praktycznie żadnych istotnych barier, aby zacząć z nich korzystać. W 2024 roku i później zarządzanie ryzykiem informacyjnym oznacza nie tylko ochronę wrażliwych danych, ale również ograniczenie ryzyka sfabrykowania informacji.