Samsung planuje pamięci HBM z wbudowanym rdzeniem obliczeniowym

Samsung_logo

Podczas targów Semicon Korea 2026 w Seulu Samsung Electronics zapowiedział nową generację pamięci wysokiej przepustowości HBM. Firma pracuje nad tzw. custom HBM wyposażoną w rdzeń obliczeniowy, który przejmie część zadań realizowanych dotąd przez procesor graficzny. To ruch, który może istotnie zmienić architekturę systemów AI i centrów danych.

Informacje przekazał Song Jai-hyuk, dyrektor technologiczny koncernu, w trakcie wystąpienia na konferencji branżowej w Seulu. Nowa pamięć ma oferować 2,8 razy wyższą wydajność przy zachowaniu tej samej efektywności energetycznej względem obecnych rozwiązań custom HBM.

 

Processor „in memory” w praktyce

Kluczową nowością jest dodanie rdzenia obliczeniowego do warstwy bazowej pamięci. W praktyce oznacza to implementację koncepcji processor in memory, w której część operacji przetwarzania danych odbywa się bezpośrednio w module pamięci. Takie podejście ogranicza konieczność przesyłania danych między GPU a HBM, co poprawia efektywność całego systemu i zmniejsza opóźnienia.

Samsung już dziś oferuje klientom niestandardowe wersje HBM, zoptymalizowane pod kątem wydajności i zużycia energii. Wykorzystują one te same interfejsy I O, warstwę PHY oraz technologię TSV co standardowe moduły. W nowej generacji firma planuje jednak zmienić architekturę rdzenia bazowego i zastosować interfejs die to die. Według zapowiedzi pozwoli to skrócić długość połączeń I O o 60% oraz zmniejszyć zużycie energii o 50%.

 

Hybrydowe łączenie i zHBM

Kolejnym elementem rozwoju jest zastosowanie technologii hybrid bonding w pamięciach HBM 12H i 16H. W testach inżynierów Samsunga opór cieplny spadł o 20%, a temperatura warstwy bazowej obniżyła się o ponad 11%. Firma nie podała jeszcze terminu wdrożenia tej metody w produkcji masowej, jednak deklaruje gotowość technologiczną do skalowania procesu.

Równolegle koncern pracuje nad rozwiązaniem określanym jako zHBM, w którym stosy pamięci układane są w osi Z w architekturze 3D. Według zapowiedzi przepustowość ma wzrosnąć czterokrotnie, a zużycie energii spaść do 25% obecnego poziomu.

 

Znaczenie dla rynku AI i centrów danych

Wąskim gardłem nowoczesnych systemów AI coraz częściej nie jest moc obliczeniowa GPU, lecz przepustowość i opóźnienia pamięci. Integracja funkcji przetwarzania bezpośrednio w HBM może ograniczyć ruch danych i poprawić skalowalność klastrów.

Jeżeli Samsung zrealizuje zapowiedzi dotyczące zHBM i hybrydowego łączenia, presja konkurencyjna na innych producentów pamięci znacząco wzrośnie. W kontekście dynamicznego rozwoju modeli generatywnych i systemów HPC nowe architektury pamięci mogą stać się jednym z kluczowych elementów przewagi technologicznej.