Nvidia ulepsza swój flagowy układ, aby obsługiwał większe systemy AI
Nvidia dodała w poniedziałek nowe funkcje do swojego najnowocześniejszego układu sztucznej inteligencji, twierdząc, że nowa oferta zacznie być wprowadzana w przyszłym roku.
H200 – jak nazywa się ten układ – ma wyprzedzić obecnie topowy układ Nvidii – H100. Podstawowym ulepszeniem ma być pamięć o większej przepustowości, jedna z najdroższych części chipa, która określa, ile danych może szybko przetworzyć.
Firma podała, że pierwszymi odbiorcami nowinki mają być Amazon, Google i Oracle.
H200 ma 141 gigabajtów pamięci o dużej przepustowości, w porównaniu z 80 gigabajtami w poprzednim modelu H100. Nvidia nie ujawniła dostawców pamięci do nowego chipa, ale we wrześniu firma Micron Technology poinformowała, że pracuje nad zostaniem dostawcą Nvidii.
Nvidia kupuje także pamięci od koreańskiej firmy SK Hynix, która w zeszłym miesiącu stwierdziła, że chipy AI pomagają ożywić jej sprzedaż. Nvidia poinformowała w środę, że Amazon Web Services, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure będą jednymi z pierwszych dostawców usług w chmurze, którzy zaoferują dostęp do chipów H200, oprócz specjalistycznych dostawców chmur AI CoreWeave, Lambda i Vultr.
Nvidia dominuje na rynku chipów AI i obsługuje ChatGPT OpenAI oraz wiele podobnych usług generatywnych AI, które odpowiadają na zapytania za pomocą pisma przypominającego ludzki. Dodanie większej pamięci o dużej przepustowości i szybsze połączenie z elementami przetwarzającymi chipa oznacza, że takie usługi będą mogły szybciej przygotować odpowiedź.