SK hynix jedynym dostawcą pamięci HBM3E dla układu Microsoft Maia 200

SK hynix będzie wyłącznym dostawcą pamięci HBM3E dla najnowszego układu sztucznej inteligencji Maia 200 opracowanego przez Microsoft. Decyzja wzmacnia pozycję koreańskiego producenta na rynku pamięci wysokiej przepustowości i potwierdza rosnące znaczenie autorskich chipów AI tworzonych przez hyperskalerów.
Wyłączna współpraca przy Maia 200
Zgodnie z doniesieniami mediów branżowych, SK hynix dostarczy swoje najnowsze pamięci HBM3E dla akceleratora AI Maia 200, zaprojektowanego przez Microsoft. Producent pamięci ma być jedynym dostawcą tego kluczowego komponentu, co w segmencie HBM pozostaje rzadkością i świadczy o dużym zaufaniu do jakości oraz zdolności produkcyjnych firmy.
Maia 200 to wyspecjalizowany układ do zadań inferencyjnych, wytwarzany w procesie 3 nm przez TSMC. Chip wykorzystuje 216 GB pamięci HBM3E, zbudowanej z sześciu 12 warstwowych stosów dostarczanych przez SK hynix. Taka konfiguracja ma zapewnić bardzo wysoką przepustowość przy relatywnie niskim zużyciu energii, co jest kluczowe w centrach danych obsługujących modele generatywne.
Centra danych i strategia Microsoftu
Microsoft wdrożył już akceleratory Maia 200 w swoich centrach danych w stanie Iowa, a kolejnym etapem ma być rozszerzenie instalacji na infrastrukturę w Arizonie. Układ jest elementem szerszej strategii firmy, która zakłada większą kontrolę nad sprzętem wykorzystywanym do obsługi usług AI oraz stopniowe ograniczanie zależności od zewnętrznych dostawców akceleratorów.
Dla SK hynix kontrakt oznacza nie tylko stabilne zamówienia, ale także umocnienie pozycji technologicznego lidera w segmencie HBM. Pamięci wysokiej przepustowości są dziś jednym z najbardziej deficytowych elementów łańcucha dostaw dla AI, a popyt rośnie szybciej niż moce produkcyjne.
Microsoft prezentuje Maia 200. Chip do inferencji AI już pracuje w centrach danych
HBM zyskuje nowe źródła wzrostu
Analitycy branży półprzewodników wskazują, że rynek HBM nie jest już napędzany wyłącznie przez popyt ze strony Nvidii. Coraz większe znaczenie mają autorskie układy tworzone przez hyperskalerów, które mają obniżać koszty i uniezależniać operatorów chmur od jednego dostawcy. Do tej grupy należą między innymi siódma generacja TPU Ironwood od Google oraz Trainium trzeciej generacji rozwijany przez Amazon w ramach AWS.
Według analiz UBS, SK hynix posiada wyraźną przewagę w obsłudze klientów projektujących układy ASIC, w tym Google, Broadcom czy Amazon Web Services. Firma już od września 2025 roku dysponuje liniami do masowej produkcji pamięci HBM4 i dostarcza płatne próbki do Nvidii. Równolegle finalizowany jest projekt optymalizacji HBM we współpracy z tym producentem, który ma wkrótce przejść do etapu pełnoskalowej produkcji.





















