Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Korea Południowa wytrenowała model generatywnej AI, na treściach z Dark Webu i nazwała ją DarkBERT

Obecnie obserwujemy jeszcze wczesne stadium efektu kuli śnieżnej wywołanej wypuszczeniem na wolność dużych modeli językowych (LLM), takich jak ChatGPT. W połączeniu z oprogramowaniem typu “open source” innych modeli GPT (Generative Pre-Trained Transformer), liczba aplikacji wykorzystujących sztuczną inteligencję eksploduje; a jak wiemy, sam ChatGPT może być wykorzystywany do tworzenia wysoce zaawansowanego złośliwego oprogramowania.

W miarę upływu czasu liczba stosowanych modeli LLM będzie rosła, a każdy z nich będzie specjalizował się we własnym obszarze, szkoląc się na starannie wyselekcjonowanych danych w określonym celu. Właśnie pojawiła się jedna z takich aplikacji, która została przeszkolona na danych z Dark Webu. DarkBERT, jak nazwali go jego południowokoreańscy twórcy, właśnie się pojawił.

DarkBERT opiera się na architekturze RoBERTa, czyli podejściu sztucznej inteligencji opracowanym w 2019 roku. Doczekało się ono swego rodzaju renesansu, a badacze odkryli, że w rzeczywistości ma do zaoferowania znacznie większą wydajność, niż można było z niego wydobyć w 2019 roku. Wygląda na to, że model był poważnie niedoszkolony w momencie premiery, znacznie poniżej swojej maksymalnej wydajności.

Aby wytrenować model, naukowcy przeszukali Dark Web przez anonimizującą zaporę sieci Tor, a następnie przefiltrowali surowe dane (stosując techniki takie jak deduplikacja, równoważenie kategorii i wstępne przetwarzanie danych) w celu wygenerowania bazy danych Dark Web. DarkBERT jest wynikiem wykorzystania tej bazy danych do zasilania RoBERTa Large Language Model, modelu, który może analizować treści Dark Web – napisane we własnych dialektach i mocno zakodowanych wiadomościach – i wydobywać z niego przydatne informacje.

Podobnie jak w przypadku innych LLM, nie oznacza to, że DarkBERT jest skończony, a dalsze szkolenie i dostrajanie może nadal poprawiać jego wyniki. Nie wiadomo jeszcze, w jaki sposób zostanie on wykorzystany i jaką wiedzę będzie można z niego uzyskać.