CoreWeave i Dell Technologies poszerzają współpracę dla AI na dużą skalę
Dell Technologies poinformował, że rozszerza strategiczną współpracę z hiperskalerem AI, CoreWeave. W ramach współpracy CoreWeave otrzyma chłodzone cieczą, w pełni zintegrowane serwery Dell IR7000 z serwerami Dell PowerEdge XE9712, obsługiwane przez profesjonalne usługi AI firmy Dell w celu optymalizacji projektu centrum danych CoreWeave.
Umowa ma na celu zaspokojenie rosnącego zapotrzebowania na wydajne środowiska chmurowe do generatywnych opracowań AI. Dell AI Factory z rozwiązaniami NVIDIA łączy infrastrukturę i możliwości usług firmy Dell z akcelerowanym przetwarzaniem, siecią i oprogramowaniem AI firmy NVIDIA. Z kolei specjalistyczna platforma usług w chmurze AI firmy CoreWeave została zbudowana od podstaw, aby sprostać potrzebom złożonych obciążeń AI. Inwestycje CoreWeave w infrastrukturę i usługi mają na celu uproszczenie wdrożeń dla przedsiębiorstw i obsługę najbardziej wymagających i ambitnych obciążeń laboratoriów AI.
„AI ma nieograniczony potencjał, a Dell jest w epicentrum tej rewolucji – powiedział Jeff Clarke, dyrektor operacyjny i wiceprezes Dell Technologies. – Wysyłając pierwsze w pełni zintegrowane, chłodzone cieczą szafy Dell IR7000 z NVIDIA GB200 NVL72, wyposażyliśmy klientów korporacyjnych CoreWeave w szybkość i skalowalność, aby przyspieszyć projekty oparte na AI. Dell i CoreWeave wspólnie umożliwią przedsiębiorstwom wykorzystanie AI”.
CoreWeave rozszerza portfolio usług w chmurze AI, korzystając z Dell AI Factory z NVIDIA CoreWeave wykorzystuje 21-calowe chłodzone cieczą Dell Integrated Rack IR7000, które są zoptymalizowane pod kątem obciążeń AI i zaprojektowane z myślą o wiodącej w branży gęstości. Te szafy wdrożą NVIDIA Blackwell za pośrednictwem serwerów Dell PowerEdge XE9712 na platformie obliczeniowej CoreWeave i będą skalowane z platformą sieciową NVIDIA Quantum-2 InfiniBand, aby ułatwić szkolenie dużych modeli językowych i wnioskowanie w czasie rzeczywistym w przypadku wdrożeń AI na dużą skalę. Dostosowane systemy szaf Dell oferujące wydajne zarządzanie energią i ulepszoną konfigurację okablowania, z 25-krotnie większą wydajnością energetyczną oferowaną przez NVIDIA GB200 NVL72 w porównaniu z poprzednikiem, są kluczowe dla obsługi AI na dużą skalę.
CoreWeave chce wykorzystać doświadczenie Dell w zakresie usług profesjonalnych, aby dostarczać i wdrażać w pełni zintegrowane i sprawdzone szafy. Dzięki Dell Integrated Rack Scalable Systems (IRSS), które łączą integrację fabryczną i szafową, testowanie rozwiązań i eksperckie wdrażanie na miejscu, aby utworzyć gotowa do użycia infrastruktura, CoreWeave znacznie skróci harmonogramy wdrażania.
Firma wykorzysta również Dell ProSupport One for Data Center, aby zapewnić zoptymalizowane pod kątem kosztów wsparcie dostosowane do potrzeb klienta. Infrastruktura Dell AI zostanie zintegrowana z zarządzanymi usługami oprogramowania w chmurze CoreWeave, w tym CoreWeave Kubernetes Service i SUNK (Slurm-on-Kubernetes). W połączeniu z możliwościami Mission Control CoreWeave, które zapewniają dobrą wydajność i funkcjonalność sprzętu, klienci mogą uzyskać dostęp do akcelerowanych obliczeń NVIDIA na dużą skalę i wiodącej w branży wydajności systemu.
„Jesteśmy oddani przesuwaniu granic rozwoju AI – mówi Brian Venturo, współzałożyciel i dyrektor ds. strategii w CoreWeave. – Dell Technologies jest strategicznym partnerem, jeśli chodzi o dostarczanie światowej klasy wydajności na dużą skalę, wprowadzanie na rynek najnowocześniejszych usług w chmurze i pomaganie naszym klientom w tworzeniu aplikacji AI nowej generacji”.