Sztuczna inteligencja staje się prostsza dzięki nowym procesorom graficznym NVIDIA i najwyższej klasy modelom AI od OVHcloud

Grupa OVHcloud, globalny gracz i europejski lider w dziedzinie chmury, wzięła udział w Adopt AI, nowej, odbywającej się we Francji konferencji poświęconej sztucznej inteligencji, konsekwentnie podkreślając tym samym zaangażowanie w demokratyzację AI w firmach w zgodzie z podstawowymi wartościami związanymi z rozwojem otwartej, przejrzystej i zaufanej chmury.

Na dynamicznie rosnącym rynku sztucznej inteligencji ambicją OVHcloud jest zaoferować firmom optymalny potencjał technologiczny pozwalający zaadresować wszystkie potrzeby związane z AI poprzez szeroką gamę rozwiązań dostępnych na każdym pułapie cenowym. Benefity dla klientów, jakie oferuje Grupa, polegają na uproszczeniu wszystkich etapów związanych z rozwojem AI, przy adekwatnym reagowaniu na rosnące problemy związane z bezpieczeństwem, ochroną danych i kosztami, które według nowych badań mogą jeszcze bardziej opóźnić zastosowanie sztucznej inteligencji w praktyce.

OVHcloud oferuje kompletną ofertę procesorów graficznych (GPU) NVIDIA, a także najnowsze otwarte duże modele językowe, takie jak Mixtral 8x22B lub Llama 3. Rozwiązania te są dostępne wprost „z półki”, w prywatnym środowisku. Grupa konsekwentnie realizuje strategię koncentrującą się na czterech kluczowych obszarach niezbędnych, aby przedsiębiorstwa mogły skutecznie stosować sztuczną inteligencję, czyli potężnych, a jednocześnie wydajnych zasobach obliczeniowych, zoptymalizowanych zestawach danych, narzędziach programistycznych oraz pionierskich kompetencjach.

 

Procesory graficzne NVIDIA spełniają wszystkie potrzeby obliczeniowe

Rozwiązania OVHcloud – strategicznie opracowane tak, aby zaspokoić wszelkie potrzeby inżynierów sztucznej inteligencji dziś i w przyszłości – pozwalają przyspieszyć realizację szerokiej gamy projektów, od tworzenia modeli AI do wnioskowania z użyciem najnowszych dużych modeli językowych.

W związku z tym Grupa oferuje w swoim uniwersum chmury publicznej kompletną ofertę najnowocześniejszych procesorów graficznych, dostępnych na żądanie w przyjaznych dla środowiska centrach danych i opartych na najnowszej generacji sprzęcie NVIDIA H100 Tensor Core GPU; NVIDIA L4 Tensor Core GPU oraz NVIDIA L40S GPU.

Bez względu na to, czy inżynierowie uczenia maszynowego stosują w swojej pracy instancje GPU czy zarządzane usługi Kubernetes, mogą skorzystać z całej gamy usług typu platforma jako usługa (PaaS) OVHcloud, w tym z zarządzanych baz danych (takich jak bazy wektorowe np. pgvector lub Qdrant), platformy Kafka oraz wysokowydajnej obiektowej pamięci masowej.

Kolejnym celem OVHcloud w ramach sztucznej inteligencji jest wprowadzenie opcji obsługi zadań związanych z AI na procesorach NVIDIA L40S w uniwersum chmury publicznej. Oprócz dostępnych już teraz procesorów NVIDIA H100 oraz L4 wykorzystywanych w projektach opartych na chmurze publicznej, jednostki NVIDIA L40S łączą w sobie potężną moc obliczeniową z najlepszą w swojej klasie akceleracją grafiki i multimediów, umożliwiając obsługę szerokiego zakresu obciążeń roboczych, od wnioskowania i szkolenia dużych modeli językowych, aż po grafikę 3D, renderowanie i wideo.

 

Procesory graficzne NVIDIA L40S teraz w serwerach dedykowanych

Odpowiadając na potrzebę zaawansowanych dedykowanych serwerów do obsługi AI, Grupa OVHcloud wprowadziła nowe serwery napędzane procesorami NVIDIA L40S. Nowe serwery dedykowane klasy High Grade HGR-AI-2 są przeznaczone do zastosowań takich jak uczenie głębokie, uczenie maszynowe i obliczenia o wysokiej wydajności. Serwery te są wyposażone w procesory AMD EPYC 9354 w podwójnej konfiguracji, co oznacza, że dysponują 64 rdzeniami i 128 wątkami z 384 GB pamięci DDR5 (do 2,3 TB). Aby umożliwić obsługę wymagających zadań związanych z AI, nowe serwery HGR-AI-2 są napędzane podwójnym procesorem graficznym NVIDIA L40S 48 GB z możliwością skonfigurowania maksymalnie czterech jednostek NVIDIA L40S 48 GB na jeden serwer.

 

Bardzo się cieszymy, że możemy jeszcze bardziej zdemokratyzować dostęp do sztucznej inteligencji dla naszych klientów korzystających z usług chmury publicznej i serwerów dedykowanych poprzez zaoferowanie im szerokiej gamy procesorów graficznych NVIDIA, strategicznie dobranych i wycenionych pod kątem rozmaitych zadań związanych z AI, od trenowania modeli aż do wnioskowania – powiedział Yaniv Fdida, dyrektor ds. produktów i technologii OVHcloud.

 

Łatwe w obsłudze narzędzia AI

Aby jeszcze bardziej uprościć stosowanie sztucznej inteligencji i zdemokratyzować sposób, w jaki firmy wykorzystują tę technologię, oferowane przez OVHcloud rozwiązania AI towarzyszą wszystkim ogniwom łańcucha wartości związanego ze sztuczną inteligencją, od pracy koncepcyjnej do produkcji.

Łatwe w użyciu usługi AI Notebooks, AI Training i AI Deploy to kompletny zestaw bezserwerowych narzędzi opracowanych specjalnie do eksperymentowania na danych, trenowania modeli i wdrażania ich do produkcji. Najwyższej klasy rozwiązania programistyczne są oparte na technologiach będących branżowym standardem i zaprojektowane tak, aby ułatwić pracę analitykom danych i inżynierom uczenia maszynowego, którzy nie muszą zarządzać skomplikowanym skalowaniem architektury. Jednocześnie oferują one minutowy model rozliczeń.

 

Nowe otwarte modele Llama i Mistral dostępne w usłudze AI Endpoints

OVHcloud AI Endpoints to kolejne bezserwerowe rozwiązanie umożliwiające dostęp do różnorodnych modeli AI poprzez punkty końcowe interfejsu API, dzięki czemu nie wymaga od użytkownika specjalistycznej wiedzy. Przed wysłaniem żądań API programiści mogą skorzystać z miejsca do testów swoich punktów końcowych. Podobnie jak wysoko oceniane usługi AI Notebooks, AI Training i AI Deploy usługa AI Endpoints jest oparta na infrastrukturze OVHcloud, w pełni respektując prywatność danych (wejściowych i wyjściowych). Grupa wprowadziła również do swojej oferty cieszące się dużym zainteresowaniem otwarte duże modele językowe, takie jak Mixtral 8x22b oraz Llama 3.

 

Cena i dostępność

Nowe procesory graficzne NVIDIA, w tym NVIDIA H100, L4 oraz L40S są już dostępne w uniwersum chmury publicznej do wykorzystania w projektach opartych na sztucznej inteligencji. Nowe serwery HGR-AI-2 z procesorem graficznym NVIDIA L40S są teraz dostępne we Francji i Kanadzie od 2 969,99 euro miesięcznie. Nowe modele, takie jak Mixtral 8x22b i Llama 3, są dostępne poprzez usługę OVHcloud AI Endpoints.

 

Relacja z Google Cloud Next 2024 w Las Vegas – sztuczna inteligencja przejmuje stery