Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

IBM zbudował w ramach swojej chmury opłacalny superkomputer AI

IBM

Odpowiedź IBM na ekonomiczny superkomputer działa już od kilku miesięcy, ale dopiero teraz firma ujawniła jakiekolwiek konkretne informacje na temat swojego projektu Vela. Korzystając ze swojego bloga, IBM ujawnił, że badania, których autorami jest pięciu pracowników firmy, dotyczą problemów z poprzednimi superkomputerami i ich braku gotowości do zadań związanych z AI.

W celu dostosowania superkomputera do tego typu obciążeń roboczych, firma rzuciła nieco światła na decyzje, jakie podjęła w zakresie wykorzystania niedrogiego, ale potężnego sprzętu. W pracy podkreślono, że:

 

„zbudowanie [tradycyjnego] superkomputera wiązało się z koniecznością zastosowania węzłów obliczeniowych, wysokowydajnego sprzętu sieciowego… równoległych systemów plików i innych elementów zwykle kojarzonych z obliczeniami o wysokiej wydajności (HPC)”.

 

Podczas gdy jasne jest, że te superkomputery mogą obsługiwać ciężkie obciążenia AI, w tym te zaprojektowane przez OpenAI, to brak optymalizacji oznaczał, że tradycyjnym superkomputerom mogło brakować czystej mocy obliczeniowej, a mieć nadmiar w innych obszarach prowadzący do niepotrzebnych wydatków.

 

„Po przeprowadzeniu znacznej ilości badań i odkryć, opracowaliśmy sposób na wyeksponowanie wszystkich możliwości węzła (GPU, CPU, sieci i pamięci masowej) w maszynie wirtualnej, dzięki czemu narzut wirtualizacji wynosi mniej niż 5%, co jest najniższym narzutem w branży, jaki znamy.”

 

Jeśli chodzi o konstrukcję pojedynczego węzła, Vela jest wyposażona w 80 GB pamięci GPU, 1,5 TB pamięci DRAM oraz cztery dyski NVMe o pojemności 3,2 TB.

The Next Platform szacuje, że gdyby IBM chciał umieścić swój superkomputer w rankingu Top500, dostarczyłby on około 27,9 petaflopów wydajności, co plasuje go na 15 miejscu według rankingów z listopada 2022 roku.

Podczas gdy dzisiejsze superkomputery są obecnie w stanie poradzić sobie z obciążeniami roboczymi związanymi z AI, ogromny rozwój sztucznej inteligencji w połączeniu z pilną potrzebą efektywności kosztowej podkreślają potrzebę stworzenia takiej maszyny.

 

Rekordowe ISE 2023! Tegoroczna najlepsza w historii.