Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Uruchomienie 2000 procesorów graficznych Nvidia AI w Teksasie kosztuje 2 mln USD rocznie

Według firmy Liftr Insights działanie 1000 procesorów graficznych H100 i 1000 A200 od Nvidii może kosztować rocznie 2 miliony dolarów, jeśli chodzi o samą energię elektryczną.

Taki klaster złożony z 2000 produktów Nvidii miałby wydajność na poziomie 44,7 petaflopów FP64.

Liftr wskazuje też, że nadal trwa duży popyt na procesory zielonego giganta w związku z ciągle trwającym rozwojem możliwości AI.

Pomimo wiadomości o opóźnieniu w procesach Blackwell główni dostawcy usług w chmurze, tacy jak AWS (Amazon Web Services), Azure i GCP, zwiększają wykorzystanie najnowszych półprzewodników Nvidia – powiedział Tab Schadt, dyrektor generalny Liftr Insights.

Według raportu TechInsights ze stycznia 2024 r., w 2023 r. dostawcy usług w chmurze korzystali z około 878 000 akceleratorów. Firma analityczna jednak zauważyła, że ​​przy przepracowaniu siedmiu milionów godzin procesora graficznego oznaczało to, że prawdopodobnie nie były one w pełni wykorzystywane.