Samsung przyspiesza w wyścigu AI. HBM4 dla Nvidii wchodzi do produkcji

SAMSUNG HBM

Samsung Electronics przygotowuje się do rozpoczęcia produkcji pamięci HBM4, kluczowego komponentu dla kolejnej generacji akceleratorów AI. Według źródeł Reutersa pierwsze układy mają trafić do Nvidii już w lutym, co może istotnie zmienić układ sił na rynku zaawansowanych pamięci dla centrów danych.

 

HBM4 jako element strategii Samsunga

Samsung Electronics planuje rozpocząć produkcję pamięci HBM4, czyli szóstej generacji High Bandwidth Memory, jeszcze w lutym 2026 r, a układy te mają trafić do Nvidii.

Dla Samsunga to istotny krok w nadrabianiu dystansu do głównego konkurenta, czyli SK Hynix, który od kilku kwartałów pozostaje kluczowym dostawcą zaawansowanych pamięci HBM dla Nvidii. Opóźnienia w dostawach i problemy z kwalifikacją wcześniejszych generacji HBM odbiły się w 2025 r. na wynikach finansowych i kursie akcji Samsunga.

 

Kwalifikacja u Nvidii i AMD

Według dziennika Korea Economic Daily Samsung przeszedł testy kwalifikacyjne HBM4 zarówno u Nvidii, jak i u AMD. Jeśli informacje te się potwierdzą, oznaczałoby to realny powrót Samsunga do gry o największe kontrakty w segmencie pamięci dla AI.

Rzecznik Samsunga odmówił komentarza, a Nvidia nie odpowiedziała na pytania Reutersa. Brak jest także szczegółów dotyczących wolumenów dostaw, co sugeruje, że początkowa produkcja może mieć charakter ograniczony i będzie stopniowo skalowana.

 

HBM a sztuczna inteligencja

SK Hynix już w październiku informował o zakończeniu rozmów kontraktowych na dostawy HBM w 2026 r., a w lutym planuje uruchomić nową fabrykę M15X w Cheongju. Nie jest jednak jasne, czy od razu będą tam wytwarzane układy HBM4.

Z kolei Jensen Huang, prezes Nvidii, zapowiedział na początku stycznia, że platforma Vera Rubin znajduje się już w produkcji. Nowa generacja akceleratorów ma być sparowana właśnie z pamięciami HBM4 i trafić na rynek jeszcze w tym roku.

W tym kontekście wejście Samsunga w produkcję HBM4 może zwiększyć dywersyfikację dostaw dla Nvidii i złagodzić napięcia podażowe, które w ostatnich kwartałach windowały ceny pamięci. Dla całego rynku oznacza to potencjalną stabilizację łańcucha dostaw i większą konkurencję w segmencie kluczowym dla rozwoju infrastruktury AI.