Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Klaster AI Tesli o wartości 300 milionów dolarów rozpoczyna dziś działalność

Tesla uruchomi swój długo oczekiwany superkomputer we wtorek. Maszyna będzie wykorzystywana do różnych zastosowań sztucznej inteligencji (AI), ale klaster jest tak potężny, że może być również używany do wymagających obciążeń obliczeniowych o wysokiej wydajności (HPC). W rzeczywistości superkomputer oparty na układzie Nvidia H100 będzie jedną z najpotężniejszych maszyn na świecie.

Nowy klaster Tesli będzie wykorzystywać 10 000 obliczeniowych procesorów graficznych Nvidia H100, które będą oferować szczytową wydajność 340 FP64 PFLOPS dla obliczeń technicznych i 39,58 INT8 ExaFLOPS dla aplikacji AI. W rzeczywistości 340 FP64 PFLOPS Tesli jest wyższe niż 304 FP64 PFLOPS oferowane przez Leonardo, czwarty na świecie superkomputer o najwyższej wydajności.

Dzięki nowemu superkomputerowi Tesla znacznie zwiększa swoje możliwości obliczeniowe, aby trenować swoją technologię w pełni autonomicznej jazdy (FSD). Może to nie tylko uczynić Teslę bardziej konkurencyjną od innych producentów samochodów, ale także sprawić, że firma stanie się właścicielem jednego z najszybszych superkomputerów na świecie.

„Ze względu na szkolenie wideo w świecie rzeczywistym, możemy mieć największe zbiory danych szkoleniowych na świecie, pojemność pamięci podręcznej hot tier przekraczającą 200PB – rzędy wielkości więcej niż LLM” – wyjaśnił Tim Zaman, AI Infra & AI Platform Engineering Manager w Tesla.

Podczas gdy nowy klaster oparty na H100 ma znacznie poprawić szybkość szkolenia Tesli, Nvidia ma trudności z zaspokojeniem popytu na te procesory graficzne. W rezultacie Tesla inwestuje ponad 1 miliard dolarów w rozwój własnego superkomputera, Dojo, który jest zbudowany na specjalnie zaprojektowanym, wysoce zoptymalizowanym układzie system-on-chip.

Dojo nie tylko przyspieszy szkolenie FSD, ale także będzie zarządzać przetwarzaniem danych dla całej floty pojazdów Tesli. Tesla jednocześnie wprowadza do sieci swój klaster GPU Nvidia H100 wraz z Dojo, co zapewni firmie niezrównaną moc obliczeniową w branży motoryzacyjnej.

Elon Musk ujawnił niedawno, że Tesla planuje wydać ponad 2 miliardy dolarów na szkolenia w zakresie sztucznej inteligencji w 2023 roku i kolejne 2 miliardy dolarów w 2024 roku specjalnie na obliczenia do szkolenia FSD. Podkreśla to zaangażowanie Tesli w pokonywanie wąskich gardeł obliczeniowych i powinno zapewnić znaczną przewagę nad rywalami.