TrendForce: platforma NVIDIA Blackwell i aktualizacje układów ASIC zwiększą zastosowanie układów chłodzenia cieczą o przynajmniej 100% w 2025 roku

NVIDIA pozostaje dominującym dostawcą na globalnym rynku serwerów AI w 2024 r. W szczególności na rynku serwerów GPU AI NVIDIA ma przytłaczającą przewagę z prawie 90% udziałem w rynku jeśli chodzi o serwery obsługujące AI. Na drugim miejscu plasuje się AMD z 8%. 

Najnowsze raporty TrendForce pokazują, że wprowadzenie na rynek platformy NVIDIA Blackwell, spodziewane w IV kwartale tego roku, ma znacząco zwiększyć adopcję rozwiązań chłodzenia cieczą.

Przewiduje się, że udział chłodzenia cieczą w rynku wzrośnie z około 10% w 2024 r. do ponad 20% w 2025 r. Zmiana ta będzie spowodowana rosnącą globalną świadomością ESG i przyspieszonym wdrażaniem serwerów AI przez CSP, co z kolei doprowadzi do przejścia z chłodzenia powietrzem na systemy chłodzenia cieczą.

TrendForce zauważa, że ​​początkowe dostawy platformy Blackwell firmy NVIDIA są w tym roku ograniczone, ponieważ łańcuch dostaw nadal kończy testy produktu i testy walidacyjne, w tym optymalizację szybkiej transmisji i konstrukcji chłodzenia. Duże zużycie energii przez nową platformę – zwłaszcza w przypadku rozwiązania GB200 full-rack – będzie wymagało bardziej wydajnego chłodzenia, co spowoduje wzrost liczby rozwiązań chłodzenia cieczą. Jednak obecne przyjęcie chłodzenia cieczą w istniejących ekosystemach serwerów pozostaje niewielkie, a ODM będą musieli przejść przez krzywą uczenia się, aby sprostać wyzwaniom, takim jak wycieki i niewystarczająca wydajność chłodzenia.

TrendForce prognozuje, że w 2025 r. udział Blackwell w rynku procesorów graficznych klasy high-end może przekroczyć 80%, przyciągając producentów zasilaczy i dostawców rozwiązań chłodzących do wejścia na rynek chłodzenia cieczą AI, tworząc tym samym nowy krajobraz konkurencyjny w branży. Oczekuje się, że tajwańscy dostawcy dostarczą szybkie rozłączniki do 1H24, ponieważ Google przewodzi wdrażaniu chłodzenia cieczą W ostatnich latach główni dostawcy usług komunikacyjnych, w tym Google, AWS i Microsoft, przyspieszyli wdrażanie serwerów AI, wykorzystując przede wszystkim procesory graficzne NVIDIA i specjalnie zaprojektowane układy ASIC.

TrendForce wskazuje, że ​​szafy GB200 NVL72 firmy NVIDIA o TDP wynoszącym około 140 kW będą wymagały rozwiązań chłodzenia cieczą w celu rozwiązania problemu rozpraszania ciepła, a technologia Liquid-to-Air (L2A) ma stać się głównym podejściem. Inne architektury serwerów Blackwell, takie jak HGX i MGX, mają mniejszą gęstość i nadal będą polegać na rozwiązaniach chłodzenia powietrzem.

Ze wszystkich gigantów Google jest najbardziej proaktywny w przyjmowaniu rozwiązań chłodzenia cieczą wśród dostawców usług komunikacyjnych opracowujących własne układy ASIC AI, wykorzystując zarówno chłodzenie powietrzem, jak i cieczą do swoich układów TPU. BOYD i Cooler Master są głównymi dostawcami płyt chłodzących dla Google.

Tymczasem w Chinach Alibaba zdecydowanie rozszerza swoje centra danych chłodzone cieczą, podczas gdy inni chińscy dostawcy usług komunikacyjnych nadal korzystają z rozwiązań chłodzenia powietrzem dla swoich układów ASIC AI.

TrendForce podkreśla, że ​​dostawcy usług komunikacyjnych określają kluczowych dostawców komponentów chłodzenia cieczą w szafach GB200 firmy NVIDIA. Obecnie Asia Vital Components i Cooler Master są liderami w dostarczaniu płyt chłodzących, podczas gdy Cooler Master i Auras dostarczają kolektory, a Vertiv i Delta Electronics dostarczają jednostki dystrybucji chłodziwa. Komponenty szybkozłączek (QD) – krytyczne dla zapobiegania wyciekom – są dostarczane głównie przez międzynarodowe firmy, takie jak CPC, Parker Hannifin, Denfoss i Staubli. Jednak tajwańskie firmy, takie jak LOTES i Fositek, są w fazie walidacji i oczekuje się, że do pierwszej połowy 2025 r. dołączą do listy dostawców QD, aby pomóc złagodzić obecny niedobór.