Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Nvidia AI Enterprise 4.0 z nowymi funkcjami związanymi z LLM i środowiskiem Kubernetes

Nvidia wprowadza nową wersję swojego pakietu oprogramowania Nvidia AI Enterprise z nowymi funkcjonalnościami do tworzenia i dostosowywania aplikacji opartych na dużych modelach językowych oraz wdrażania modeli AI w kontenerach Kubernetes.

Wprowadzony w 2021 roku, Nvidia AI Enterprise dostarcza organizacjom Framework AI, czyli wstępnie przeszkolone modele i narzędzia, niezbędne m.in. do tworzenia i wdrażania aplikacji opartych na sztucznej inteligencji.

Nowe funkcje w Nvidia AI Enterprise 4.0 obejmują Nvidia NeMo, platformę w chmurze, umożliwiającą tworzenie, dostosowywanie i wdrażanie dużych modeli językowych do różnych zastosowań generatywnej sztucznej inteligencji, takich jak generowanie obrazów, wideo i modeli 3D na podstawie podpowiedzi tekstowych.

Nowa wersja będzie również zawierać Nvidia Triton Management Service, który automatyzuje proces wdrażania modeli AI poprzez wiele instancji Triton Inference Server w klastrach Kubernetes, aby zoptymalizować wydajność i wykorzystanie sprzętu.

Kolejną nadchodzącą funkcją jest Nvidia Base Command Manager Essentials, czyli oprogramowanie do zarządzania klastrami, które pomaga organizacjom “maksymalizować wydajność i wykorzystanie serwerów AI w centrach danych, środowiskach wielochmurowych i hybrydowych”.

Nvidia AI Enterprise została certyfikowana do działania na systemach certyfikowanych przez Nvidię, w tym na systemach Nvidia DGX oraz głównych platformach chmurowych, oraz nowo ogłoszonych stacjach roboczych Nvidia RTX.

Pakiet oprogramowania został zintegrowany z usługami ServiceNow, Snowflake i Dell Technologies, a także z partnerskimi usługami Amazon Web Services, Google Cloud i Microsoft Azure. Integracja jest również planowana z kilkoma narzędziami MLOps, w tym z Azure Machine Learning od Microsoftu, ClearML, Domino Data Labs, Run:AI oraz Weight & Biases.