Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Nvidia ulepsza swój flagowy układ, aby obsługiwał większe systemy AI 

Nvidia dodała w poniedziałek nowe funkcje do swojego najnowocześniejszego układu sztucznej inteligencji, twierdząc, że nowa oferta zacznie być wprowadzana w przyszłym roku.

H200 – jak nazywa się ten układ – ma wyprzedzić obecnie topowy układ Nvidii – H100. Podstawowym ulepszeniem ma być pamięć o większej przepustowości, jedna z najdroższych części chipa, która określa, ile danych może szybko przetworzyć.

Firma podała, że pierwszymi odbiorcami nowinki mają być Amazon, Google i Oracle.

H200 ma 141 gigabajtów pamięci o dużej przepustowości, w porównaniu z 80 gigabajtami w poprzednim modelu H100. Nvidia nie ujawniła dostawców pamięci do nowego chipa, ale we wrześniu firma Micron Technology poinformowała, że pracuje nad zostaniem dostawcą Nvidii.

Nvidia kupuje także pamięci od koreańskiej firmy SK Hynix, która w zeszłym miesiącu stwierdziła, że chipy AI pomagają ożywić jej sprzedaż. Nvidia poinformowała w środę, że Amazon Web Services, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure będą jednymi z pierwszych dostawców usług w chmurze, którzy zaoferują dostęp do chipów H200, oprócz specjalistycznych dostawców chmur AI CoreWeave, Lambda i Vultr.

Nvidia dominuje na rynku chipów AI i obsługuje ChatGPT OpenAI oraz wiele podobnych usług generatywnych AI, które odpowiadają na zapytania za pomocą pisma przypominającego ludzki. Dodanie większej pamięci o dużej przepustowości i szybsze połączenie z elementami przetwarzającymi chipa oznacza, że takie usługi będą mogły szybciej przygotować odpowiedź.

Czy leci z nami pilot? Czyli transformacja cyfrowa po polsku, wciąż kończy się na samych planach… Jakie są możliwości, zdradza ekspert OVHcloud