NVIDIA przejmie dostawcę oprogramowania do orkiestracji GPU Run:ai
Aby pomóc klientom w bardziej efektywnym wykorzystaniu ich zasobów obliczeniowych AI, NVIDIA ogłosiła dziś zawarcie ostatecznej umowy nabycia Run:ai, dostawcy oprogramowania do zarządzania i orkiestracji obciążeń opartych na Kubernetes.
Wdrożenia sztucznej inteligencji u klientów stają się coraz bardziej złożone, z obciążeniami rozproszonymi w chmurze, na brzegu sieci i w lokalnej infrastrukturze centrum danych. Zarządzanie i orkiestracja generatywnej sztucznej inteligencji, systemów rekomendacji, wyszukiwarek i innych obciążeń wymaga zaawansowanego harmonogramowania w celu optymalizacji wydajności na poziomie systemu i infrastruktury bazowej.
Run:ai umożliwia klientom korporacyjnym zarządzanie i optymalizację infrastruktury obliczeniowej, zarówno lokalnej, w chmurze, jak i w środowiskach hybrydowych. Firma zbudowała otwartą platformę opartą na Kubernetes. Obsługuje wszystkie popularne warianty Kubernetes i integruje się z narzędziami i frameworkami AI innych firm.
Wśród klientów Run:ai znajdują się jedne z największych na świecie przedsiębiorstw z różnych branż, które wykorzystują platformę Run:ai do zarządzania klastrami GPU w skali centrum danych.
„Run:ai ściśle współpracuje z firmą NVIDIA od 2020 roku i łączy nas pasja pomagania naszym klientom w jak najlepszym wykorzystaniu ich infrastruktury – powiedział Omri Geller, współzałożyciel i dyrektor generalny Run:ai. – „Cieszymy się, że możemy dołączyć do firmy NVIDIA i nie możemy się doczekać kontynuowania naszej wspólnej podróży”.
Platforma Run:ai zapewnia programistom AI i ich zespołom:
- Scentralizowany interfejs do zarządzania współdzieloną infrastrukturą obliczeniową, umożliwiający łatwiejszy i szybszy dostęp do złożonych obciążeń AI.
- Funkcjonalność dodawania użytkowników, przydzielania ich do zespołów, zapewniania dostępu do zasobów klastra, kontroli nad kwotami, priorytetami i pulami oraz monitorowania i raportowania wykorzystania zasobów.
- Możliwość łączenia układów GPU i udostępniania mocy obliczeniowej – od ułamków układów GPU do wielu układów GPU lub wielu węzłów układów GPU działających w różnych klastrach – dla oddzielnych zadań.
- Efektywne wykorzystanie zasobów klastra GPU, pozwalające klientom uzyskać więcej korzyści z ich inwestycji obliczeniowych.
NVIDIA będzie nadal oferować produkty Run:ai w ramach tego samego modelu biznesowego w najbliższej przyszłości. NVIDIA będzie nadal inwestować w mapę drogową produktów Run:ai w ramach NVIDIA DGX Cloud, platformy AI opracowanej wspólnie z wiodącymi chmurami dla programistów korporacyjnych, oferującej zintegrowaną, kompleksową usługę zoptymalizowaną pod kątem generatywnej sztucznej inteligencji.
Klienci NVIDIA DGX i DGX Cloud uzyskają dostęp do możliwości Run:ai dla swoich obciążeń AI, w szczególności dla dużych wdrożeń modeli językowych. Rozwiązania Run:ai są już zintegrowane m.in. z oprogramowaniem NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontenerami NGC i oprogramowaniem NVIDIA AI Enterprise.
Platforma akceleracji obliczeń NVIDIA i platforma Run:ai będą nadal wspierać szeroki ekosystem rozwiązań innych firm, zapewniając klientom wybór i elastyczność.
Wraz z Run:ai, NVIDIA umożliwi klientom posiadanie pojedynczej struktury, która zapewnia dostęp do rozwiązań GPU w dowolnym miejscu. Klienci mogą spodziewać się korzyści w postaci lepszego wykorzystania GPU, usprawnionego zarządzania infrastrukturą GPU i większej elastyczności dzięki otwartej architekturze.