Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

NVIDIA przejmie dostawcę oprogramowania do orkiestracji GPU Run:ai

Aby pomóc klientom w bardziej efektywnym wykorzystaniu ich zasobów obliczeniowych AI, NVIDIA ogłosiła dziś zawarcie ostatecznej umowy nabycia Run:ai, dostawcy oprogramowania do zarządzania i orkiestracji obciążeń opartych na Kubernetes.

Wdrożenia sztucznej inteligencji u klientów stają się coraz bardziej złożone, z obciążeniami rozproszonymi w chmurze, na brzegu sieci i w lokalnej infrastrukturze centrum danych. Zarządzanie i orkiestracja generatywnej sztucznej inteligencji, systemów rekomendacji, wyszukiwarek i innych obciążeń wymaga zaawansowanego harmonogramowania w celu optymalizacji wydajności na poziomie systemu i infrastruktury bazowej.

Run:ai umożliwia klientom korporacyjnym zarządzanie i optymalizację infrastruktury obliczeniowej, zarówno lokalnej, w chmurze, jak i w środowiskach hybrydowych. Firma zbudowała otwartą platformę opartą na Kubernetes. Obsługuje wszystkie popularne warianty Kubernetes i integruje się z narzędziami i frameworkami AI innych firm.

Wśród klientów Run:ai znajdują się jedne z największych na świecie przedsiębiorstw z różnych branż, które wykorzystują platformę Run:ai do zarządzania klastrami GPU w skali centrum danych.

„Run:ai ściśle współpracuje z firmą NVIDIA od 2020 roku i łączy nas pasja pomagania naszym klientom w jak najlepszym wykorzystaniu ich infrastruktury – powiedział Omri Geller, współzałożyciel i dyrektor generalny Run:ai. – „Cieszymy się, że możemy dołączyć do firmy NVIDIA i nie możemy się doczekać kontynuowania naszej wspólnej podróży”.

Platforma Run:ai zapewnia programistom AI i ich zespołom:

  • Scentralizowany interfejs do zarządzania współdzieloną infrastrukturą obliczeniową, umożliwiający łatwiejszy i szybszy dostęp do złożonych obciążeń AI.
  • Funkcjonalność dodawania użytkowników, przydzielania ich do zespołów, zapewniania dostępu do zasobów klastra, kontroli nad kwotami, priorytetami i pulami oraz monitorowania i raportowania wykorzystania zasobów.
  • Możliwość łączenia układów GPU i udostępniania mocy obliczeniowej – od ułamków układów GPU do wielu układów GPU lub wielu węzłów układów GPU działających w różnych klastrach – dla oddzielnych zadań.
  • Efektywne wykorzystanie zasobów klastra GPU, pozwalające klientom uzyskać więcej korzyści z ich inwestycji obliczeniowych.

NVIDIA będzie nadal oferować produkty Run:ai w ramach tego samego modelu biznesowego w najbliższej przyszłości. NVIDIA będzie nadal inwestować w mapę drogową produktów Run:ai w ramach NVIDIA DGX Cloud, platformy AI opracowanej wspólnie z wiodącymi chmurami dla programistów korporacyjnych, oferującej zintegrowaną, kompleksową usługę zoptymalizowaną pod kątem generatywnej sztucznej inteligencji.

Klienci NVIDIA DGX i DGX Cloud uzyskają dostęp do możliwości Run:ai dla swoich obciążeń AI, w szczególności dla dużych wdrożeń modeli językowych. Rozwiązania Run:ai są już zintegrowane m.in. z oprogramowaniem NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, kontenerami NGC i oprogramowaniem NVIDIA AI Enterprise.

Platforma akceleracji obliczeń NVIDIA i platforma Run:ai będą nadal wspierać szeroki ekosystem rozwiązań innych firm, zapewniając klientom wybór i elastyczność.

Wraz z Run:ai, NVIDIA umożliwi klientom posiadanie pojedynczej struktury, która zapewnia dostęp do rozwiązań GPU w dowolnym miejscu. Klienci mogą spodziewać się korzyści w postaci lepszego wykorzystania GPU, usprawnionego zarządzania infrastrukturą GPU i większej elastyczności dzięki otwartej architekturze.