Popyt na pamięci HBM dla układów ASIC wzrośnie 35-krotnie. Counterpoint Research o przyszłości serwerów AI

Według najnowszych prognoz firmy analitycznej Counterpoint Research, zapotrzebowanie na pamięci o wysokiej przepustowości (HBM) dedykowane układom ASIC w serwerach AI wzrośnie do 2028 roku aż 35-krotnie względem poziomu z 2023 roku. Gwałtowny skok wynika z masowego wdrażania autorskich procesorów przez największych dostawców chmury, którzy dążą do optymalizacji kosztów i zwiększenia wydajności obliczeniowej w zadaniach związanych z generatywną sztuczną inteligencją.
Ekspansja dedykowanych układów scalonych
Analitycy Counterpoint Research wskazują na fundamentalną zmianę w architekturze centrów danych, gdzie ogólnego przeznaczenia jednostki GPU są systematycznie uzupełniane lub zastępowane przez wyspecjalizowane układy ASIC. Globalne dostawy tych procesorów mają przekroczyć próg 15 milionów jednostek do 2028 roku. Za ten trend odpowiadają przede wszystkim giganci technologiczni, tacy jak Google (układy TPU), Amazon Web Services (Trainium i Inferentia) oraz Meta i Microsoft, rozwijający własne portfolio krzemowe (MTIA i Maia). Przejście na dedykowane rozwiązania pozwala na lepszą kontrolę nad infrastrukturą i uniezależnienie się od dominujących dostawców zewnętrznych.
HBM kluczowym wąskim gardłem i motorem wzrostu
Wzrost zapotrzebowania na pamięci HBM jest bezpośrednio powiązany z rosnącą złożonością modeli językowych, które wymagają potężnej przepustowości danych. Eksperci z Counterpoint Research przewidują, że zawartość pamięci HBM w pojedynczym układzie ASIC będzie systematycznie rosnąć, co w połączeniu z lawinowym przyrostem liczby dostarczanych procesorów wygeneruje wspomniany, 35-krotny wzrost popytu. Obecnie rynek ten wchodzi w fazę przejścia na standard HBM4, który oferuje jeszcze wyższą gęstość zapisu i efektywność energetyczną, co jest niezbędne do obsługi procesów inferencji na masową skalę. Liderem w projektowaniu tych zaawansowanych rozwiązań pozostaje Broadcom, kontrolujący blisko 60% rynku projektowego ASIC.

Strukturalne zmiany w ekosystemie chmury
Projekcja przygotowana przez Counterpoint Research sugeruje, że rynek serwerów AI przechodzi ewolucję od skoncentrowanego duopolu w stronę zróżnicowanego ekosystemu. O ile w 2024 roku dominującą pozycję zajmowały rozwiązania Google i AWS, o tyle rok 2027 przyniesie znaczące zwiększenie wolumenu produkcji ze strony Mety i Microsoftu. Ta dywersyfikacja napędza inwestycje w zaawansowane technologie pakowania układów oraz rezerwacje mocy produkcyjnych w czołowych światowych odlewniach. Logistyka dostaw pamięci HBM staje się tym samym strategicznym elementem planowania dla dziesięciu największych graczy typu hyperscale, którzy do 2028 roku łącznie wdrożą ponad 40 milionów wyspecjalizowanych czipów AI.





















