TrendForce: wzrost popytu na serwery AI zwiększy wartość rynkową w 2024 r. do 187 miliardów USD
Z najnowszego raportu branżowego TrendForce na temat serwerów AI wynika, że duży popyt na zaawansowane serwery AI ze strony głównych dostawców usług internetowych i klientów markowych utrzyma się w 2024 r.
Tymczasem stopniowe rozszerzanie produkcji firm TSMC, SK hynix, Samsung i Micron znacznie zmniejszyło niedobory w drugim kwartale 2024 r. W rezultacie czas realizacji flagowego rozwiązania NVIDIA H100 skrócił się z poprzednich 40–50 tygodni do mniej niż 16 tygodni.
TrendForce szacuje, że dostawy serwerów AI w drugim kwartale wzrosną o prawie 20% w ujęciu kwartalnym i skorygowało prognozę rocznych dostaw do 1,67 miliona jednostek, co oznacza wzrost o 41,5% rok do roku. Firma badawcza zauważa, że w tym roku główni dostawcy usług internetowych w dalszym ciągu koncentrują swoje budżety na zakupach serwerów AI, co wypiera dynamikę wzrostu serwerów ogólnych.
W porównaniu z wysokim tempem wzrostu serwerów AI, roczne tempo wzrostu ogólnych dostaw serwerów wynosi zaledwie 1,9%. Oczekuje się, że udział serwerów AI w całkowitych dostawach serwerów osiągnie 12,2%, co oznacza wzrost o około 3,4 punktu procentowego w porównaniu z 2023 r. Pod względem wartości rynkowej serwery AI przyczyniają się do wzrostu przychodów w większym stopniu niż serwery zwykłe. Przewiduje się, że wartość rynkowa serwerów AI przekroczy 187 miliardów dolarów w 2024 r., przy stopie wzrostu wynoszącej 69%, co będzie stanowić 65% całkowitej wartości rynku serwerów.
Północnoamerykańscy dostawcy CSP (np. AWS, Meta) stale rozwijają swoje zastrzeżone układy ASIC, a chińskie firmy, takie jak Alibaba, Baidu i Huawei, aktywnie rozwijają własne rozwiązania ASIC AI. Oczekuje się, że zwiększy to udział serwerów ASIC w całym rynku serwerów AI do 26% w 2024 r., podczas gdy główne serwery AI wyposażone w procesory graficzne będą stanowić około 71%.
Jeśli chodzi o dostawców chipów AI do serwerów AI, największy udział w rynku ma NVIDIA – sięgający 90% w przypadku serwerów AI wyposażonych w procesor graficzny – podczas gdy udział AMD w rynku wynosi zaledwie około 8%. Jednak biorąc pod uwagę wszystkie chipy AI stosowane w serwerach AI (GPU, ASIC, FPGA), udział firmy NVIDIA w rynku w tym roku wynosi około 64%.
TrendForce zauważa, że oczekuje się, że popyt na zaawansowane serwery AI utrzyma się na wysokim poziomie do 2025 r., zwłaszcza że następna generacja Blackwell firmy NVIDIA (w tym GB200, B100/B200) ma zastąpić platformę Hopper jako główny nurt rynku. Będzie to również napędzać popyt na CoWoS i HBM. W przypadku NVIDIA B100 rozmiar chipa będzie dwukrotnie większy niż w H100, co spowoduje większe zużycie CoWoS. Szacuje się, że moce produkcyjne CoWoS głównego dostawcy TSMC osiągną 550–600 tys. jednostek do końca 2025 r., przy stopie wzrostu zbliżonej do 80%.
Mainstreamowy H100 w 2024 roku będzie wyposażony w 80 GB HMB3. Oczekuje się, że do 2025 roku główne chipy, takie jak Blackwell Ultra firmy NVIDIA lub MI350 firmy AMD, zostaną wyposażone w aż do 288 GB pamięci HBM3e, co potroi wykorzystanie jednostki. Oczekuje się, że całkowita podaż HBM podwoi się do 2025 r. ze względu na utrzymujący się duży popyt na rynku serwerów AI.