Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Szybkość odpowiedzi na zapytania użytkowników została przetestowana przez nowy benchmark AI

Grupa MLCommons zajmująca się benchmarkingiem sztucznej inteligencji opublikowała w środę nowy zestaw testów i wyników oceniających prędkość, z jaką najwyższej klasy sprzęt może uruchamiać aplikacje AI i odpowiadać użytkownikom. 

Jak podaje Reuters, dwa nowe testy porównawcze dodane przez MLCommons mierzą prędkość, z jaką chipy i systemy AI mogą generować odpowiedzi z potężnych modeli AI. Wyniki z grubsza pokazują, jak szybko aplikacja AI, taka jak ChatGPT, może odpowiedźieć na zapytanie użytkownika.

Grupa zdecydowała się na dodanie do pakietu dwóch nowych testów porównawczych. Model Llama 2 70B został wybrany do reprezentowania „większych” LLM z 70 miliardami parametrów, natomiast model Stable Diffusion XL jest ekwiwalentem generatywnych modeli sztucznej inteligencji przekształcających tekst na obraz.

Serwery zasilane chipami Nvidia H100 zbudowanymi przez takie firmy jak Google, Supermicro i samą Nvidię z łatwością zdobyły oba nowe standardy w zakresie surowej wydajności.

Surowa wydajność nie jest jedyną miarą, która jest krytyczna podczas wdrażania aplikacji AI. Zaawansowane chipy AI pochłaniają ogromne ilości energii, a jednym z najważniejszych wyzwań dla firm zajmujących się sztuczną inteligencją jest wdrożenie chipów zapewniających optymalną wydajność przy minimalnej ilości energii.

Kilku producentów serwerów przedstawiło projekty oparte na słabszym chipie L40S firmy. Konstruktor serwerów Krai przedstawił projekt testu porównawczego generowania obrazu z chipem Qualcomm AI, który pobiera znacznie mniej energii niż najnowocześniejsze procesory Nvidia. Intel przedstawił także projekt oparty na chipach akceleratora Gaudi2. Firma określiła wyniki jako „solidne”.