Blackwell B200, TSMC i SK hynix, czyli co słychać na konferencji Nvidii

Ostatnio globalne firmy technologiczne intensywnie inwestują w sztuczną inteligencję, co prowadzi do wzrostu wymagań w zakresie wydajności chipów AI. 

NVIDIA rozpoczęła doroczną konferencję na temat technologii procesorów graficznych (GPU) (GTC), a dyrektor generalny Jensen Huang ogłosił wprowadzenie na rynek nowego chipa opartego na sztucznej inteligencji, Blackwell B200.

Jak podaje TrendForce za raportem TechNews, nowa architektura Blackwell może poszczycić się ogromną ilością procesora graficznego, wykonaną przy użyciu 4-nanometrowej technologii procesowej (4NP) firmy TSMC, integrującej dwie niezależnie wyprodukowane matryce, łącznie 208 miliardów tranzystorów. Te matryce są następnie łączone ze sobą niczym zamek błyskawiczny za pośrednictwem interfejsu NVLink 5.0.

NVIDIA wykorzystuje interfejs NVLink 5.0 o przepustowości 10 TB/s do połączenia dwóch kości, oficjalnie nazywany interfejsem NV-HBI. Interfejs NVLink 5.0 kompleksu Blackwell zapewnia przepustowość 1,8 TB/s, podwajając prędkość interfejsu NVLink 4.0 w procesorach graficznych o architekturze Hopper poprzedniej generacji.

Według raportu Tom’s Hardware wydajność obliczeniowa AI pojedynczego procesora graficznego B200 może osiągnąć 20 petaflopów, podczas gdy poprzednia generacja H100 oferowała maksymalnie zaledwie 4 petaflopy wydajności obliczeniowej AI. B200 będzie także sparowany ze 192 GB pamięci HBM3e, co zapewni przepustowość do 8 TB/s.

Dostawca rozwiązań HBM dla firmy NVIDIA, południowokoreański producent chipów SK Hynix, również wydał dziś komunikat prasowy, w którym ogłasza rozpoczęcie masowej produkcji swojego nowego produktu o wysokiej wydajności DRAM, HBM3e, a dostawy mają rozpocząć się pod koniec marca.

SK hynix – pierwsza firma produkująca chipy HBM3E masowo