Naukowcy: Ludzki mózg przetwarza język jak LLM. Przełomowe odkrycie w “Nature Communications”

Międzynarodowy zespół badaczy z Uniwersytetu Hebrajskiego, Google Research i Uniwersytetu Princeton odkrył fundamentalne podobieństwo między sposobem, w jaki ludzki mózg interpretuje mowę, a architekturą dużych modeli językowych (LLM) takich jak GPT-2 czy Llama 2. Wyniki opublikowane w prestiżowym “Nature Communications” sugerują, że nasze neuronalne procesy rozumienia języka przebiegają w sekwencjach niemal identycznych jak warstwy sieci neuronowych w sztucznej inteligencji.
Zespół pod kierownictwem dr Ariela Goldsteina wykorzystał zaawansowaną elektrokortykografię (ECoG) do śledzenia aktywności mózgu osób słuchających 30-minutowego podcastu. Metoda ta polega na umieszczeniu elektrod bezpośrednio na powierzchni kory mózgowej, co pozwala na rejestrowanie sygnałów elektrycznych z nieosiągalną dla zwykłego EEG precyzją czasową i przestrzenną. Analiza wykazała, że ludzkie rozumienie mowy nie jest procesem natychmiastowym, lecz wieloetapowym, rozłożonym w czasie. Co kluczowe, wczesne sygnały neuronalne idealnie korelowały z płytkimi warstwami modeli AI (analizującymi podstawowe cechy słów), podczas gdy późniejsza aktywność – zwłaszcza w tzw. ośrodku Broki – odpowiadała głębszym warstwom LLM, odpowiedzialnym za kontekst i znaczenie.
Dr Goldstein przyznał, że “najbardziej zaskakująca” była ścisła zbieżność czasowa tych procesów. Choć biologiczny mózg i cyfrowy model mają diametralnie różną budowę fizyczną, oba systemy wyewoluowały (lub zostały wytrenowane) do stosowania niemal identycznej strategii stopniowego “rozkodowywania” sensu wypowiedzi. Odkrycie to podważa dominujące przez lata teorie lingwistyczne, które zakładały, że mózg operuje na sztywnych regułach gramatycznych i symbolach. Zamiast tego, badanie wspiera hipotezę o elastycznym, opartym na danych procesie uczenia się, w którym znaczenie wyłania się dynamicznie z kontekstu – dokładnie tak, jak w nowoczesnych transformerach (rodzaj architektury sieci neuronowych, która rewolucjonizuje AI dzięki mechanizmowi “uwagi”, pozwalającemu modelowi skupiać się na relacjach między odległymi słowami w zdaniu).
Dla świata nauki i technologii oznacza to zmianę paradygmatu. Sztuczna inteligencja przestaje być postrzegana wyłącznie jako narzędzie inżynieryjne czy “czarna skrzynka”, a staje się precyzyjnym modelem badawczym dla neurobiologii. Zrozumienie, że “myślimy jak algorytm” (lub odwrotnie), może przyspieszyć prace nad interfejsami mózg-komputer oraz nową generacją systemów AI, które będą jeszcze lepiej imitować, a może nawet wspomagać, naturalne procesy poznawcze człowieka.






















