Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

TrendForce: wzrost popytu na serwery AI zwiększy wartość rynkową w 2024 r. do 187 miliardów USD

Z najnowszego raportu branżowego TrendForce na temat serwerów AI wynika, że duży popyt na zaawansowane serwery AI ze strony głównych dostawców usług internetowych i klientów markowych utrzyma się w 2024 r. 

Tymczasem stopniowe rozszerzanie produkcji firm TSMC, SK hynix, Samsung i Micron znacznie zmniejszyło niedobory w drugim kwartale 2024 r. W rezultacie czas realizacji flagowego rozwiązania NVIDIA H100 skrócił się z poprzednich 40–50 tygodni do mniej niż 16 tygodni.

TrendForce szacuje, że dostawy serwerów AI w drugim kwartale wzrosną o prawie 20% w ujęciu kwartalnym i skorygowało prognozę rocznych dostaw do 1,67 miliona jednostek, co oznacza wzrost o 41,5% rok do roku. Firma badawcza zauważa, że ​​w tym roku główni dostawcy usług internetowych w dalszym ciągu koncentrują swoje budżety na zakupach serwerów AI, co wypiera dynamikę wzrostu serwerów ogólnych.

W porównaniu z wysokim tempem wzrostu serwerów AI, roczne tempo wzrostu ogólnych dostaw serwerów wynosi zaledwie 1,9%. Oczekuje się, że udział serwerów AI w całkowitych dostawach serwerów osiągnie 12,2%, co oznacza wzrost o około 3,4 punktu procentowego w porównaniu z 2023 r. Pod względem wartości rynkowej serwery AI przyczyniają się do wzrostu przychodów w większym stopniu niż serwery zwykłe. Przewiduje się, że wartość rynkowa serwerów AI przekroczy 187 miliardów dolarów w 2024 r., przy stopie wzrostu wynoszącej 69%, co będzie stanowić 65% całkowitej wartości rynku serwerów.

Północnoamerykańscy dostawcy CSP (np. AWS, Meta) stale rozwijają swoje zastrzeżone układy ASIC, a chińskie firmy, takie jak Alibaba, Baidu i Huawei, aktywnie rozwijają własne rozwiązania ASIC AI. Oczekuje się, że zwiększy to udział serwerów ASIC w całym rynku serwerów AI do 26% w 2024 r., podczas gdy główne serwery AI wyposażone w procesory graficzne będą stanowić około 71%.

Jeśli chodzi o dostawców chipów AI do serwerów AI, największy udział w rynku ma NVIDIA – sięgający 90% w przypadku serwerów AI wyposażonych w procesor graficzny – podczas gdy udział AMD w rynku wynosi zaledwie około 8%. Jednak biorąc pod uwagę wszystkie chipy AI stosowane w serwerach AI (GPU, ASIC, FPGA), udział firmy NVIDIA w rynku w tym roku wynosi około 64%.

TrendForce zauważa, że ​​oczekuje się, że popyt na zaawansowane serwery AI utrzyma się na wysokim poziomie do 2025 r., zwłaszcza że następna generacja Blackwell firmy NVIDIA (w tym GB200, B100/B200) ma zastąpić platformę Hopper jako główny nurt rynku. Będzie to również napędzać popyt na CoWoS i HBM. W przypadku NVIDIA B100 rozmiar chipa będzie dwukrotnie większy niż w H100, co spowoduje większe zużycie CoWoS. Szacuje się, że moce produkcyjne CoWoS głównego dostawcy TSMC osiągną 550–600 tys. jednostek do końca 2025 r., przy stopie wzrostu zbliżonej do 80%.

Mainstreamowy H100 w 2024 roku będzie wyposażony w 80 GB HMB3. Oczekuje się, że do 2025 roku główne chipy, takie jak Blackwell Ultra firmy NVIDIA lub MI350 firmy AMD, zostaną wyposażone w aż do 288 GB pamięci HBM3e, co potroi wykorzystanie jednostki. Oczekuje się, że całkowita podaż HBM podwoi się do 2025 r. ze względu na utrzymujący się duży popyt na rynku serwerów AI.