Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Big Tech opracowuje standard sieciowy AI, by stawić czoła dominacji Nvidii

AI Sztuczna Inteligencja

Największe firmy technologiczne, w tym Meta, Microsoft, AMD i Broadcom, oświadczyły w czwartek, że opracowały nowy standard branżowy dla sieci w centrach danych AI. To najnowsze działanie mające na celu przełamanie dominacji Nvidii na rynku. 

Inni członkowie to firmy Google, Cisco System, Hewlett Packard Enterprise i Intel.

Jak podaje Reuters, grupa Ultra Accelerator Link to efekt próby ustanowienia otwartego standardu komunikacji pomiędzy akceleratorami sztucznej inteligencji – systemami, które mogą pomóc w przetwarzaniu ogromnych ilości danych wykorzystywanych w zadaniach AI.

„Specyfikacja branżowa staje się kluczowa dla standaryzacji interfejsu sztucznej inteligencji i uczenia maszynowego, HPC (obliczeń o wysokiej wydajności) oraz aplikacji w chmurze na potrzeby centrów danych i wdrożeń nowej generacji AI” – stwierdziły firmy w oświadczeniu.

Giganci technologiczni, tacy jak Google i Meta, chcą zmniejszyć swoją zależność od Nvidii, której działalność sieciowa stanowi istotną część pakietu umożliwiającego dominację sztucznej inteligencji.

Grupa Ultra Accelerator Link opracowała specyfikacje regulujące połączenia pomiędzy różnymi akceleratorami w centrum danych. Specyfikacje będą dostępne w trzecim kwartale 2024 roku dla firm, które przystąpią do konsorcjum Ultra Accelerator Link (UALink).