Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Blackwell B200, TSMC i SK hynix, czyli co słychać na konferencji Nvidii

Ostatnio globalne firmy technologiczne intensywnie inwestują w sztuczną inteligencję, co prowadzi do wzrostu wymagań w zakresie wydajności chipów AI. 

NVIDIA rozpoczęła doroczną konferencję na temat technologii procesorów graficznych (GPU) (GTC), a dyrektor generalny Jensen Huang ogłosił wprowadzenie na rynek nowego chipa opartego na sztucznej inteligencji, Blackwell B200.

Jak podaje TrendForce za raportem TechNews, nowa architektura Blackwell może poszczycić się ogromną ilością procesora graficznego, wykonaną przy użyciu 4-nanometrowej technologii procesowej (4NP) firmy TSMC, integrującej dwie niezależnie wyprodukowane matryce, łącznie 208 miliardów tranzystorów. Te matryce są następnie łączone ze sobą niczym zamek błyskawiczny za pośrednictwem interfejsu NVLink 5.0.

NVIDIA wykorzystuje interfejs NVLink 5.0 o przepustowości 10 TB/s do połączenia dwóch kości, oficjalnie nazywany interfejsem NV-HBI. Interfejs NVLink 5.0 kompleksu Blackwell zapewnia przepustowość 1,8 TB/s, podwajając prędkość interfejsu NVLink 4.0 w procesorach graficznych o architekturze Hopper poprzedniej generacji.

Według raportu Tom’s Hardware wydajność obliczeniowa AI pojedynczego procesora graficznego B200 może osiągnąć 20 petaflopów, podczas gdy poprzednia generacja H100 oferowała maksymalnie zaledwie 4 petaflopy wydajności obliczeniowej AI. B200 będzie także sparowany ze 192 GB pamięci HBM3e, co zapewni przepustowość do 8 TB/s.

Dostawca rozwiązań HBM dla firmy NVIDIA, południowokoreański producent chipów SK Hynix, również wydał dziś komunikat prasowy, w którym ogłasza rozpoczęcie masowej produkcji swojego nowego produktu o wysokiej wydajności DRAM, HBM3e, a dostawy mają rozpocząć się pod koniec marca.

SK hynix – pierwsza firma produkująca chipy HBM3E masowo