Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Cerebras Systems ogłasza globalną ekspansję i strategiczne partnerstwa, rzucając wyzwanie NVIDII

Cerebras Systems, innowacyjny startup zajmujący się sprzętem AI, ogłosił we wtorek znaczącą ekspansję swoich centrów danych oraz dwa strategiczne partnerstwa, które mogą ugruntować jego pozycję jako lidera w dziedzinie szybkiego wnioskowania AI.

Cerebras planuje otworzenie sześciu nowych centrów danych w Ameryce Północnej i Europie, co zwiększy jego moce obliczeniowe dwudziestokrotnie, do ponad 40 milionów tokenów na sekundę. Nowe lokalizacje obejmują Dallas, Minneapolis, Oklahoma City, Montreal, Nowy Jork oraz Francję. Celem firmy na ten rok jest zaspokojenie rosnącego zapotrzebowania na tzw. wnioskowanie AI, zwłaszcza w kontekście premier nowych modeli, takich jak Llama 4 czy DeepSeek.

Równocześnie z ekspansją infrastruktury, Cerebras nawiązał współpracę z Hugging Face, popularną platformą deweloperską AI, oraz AlphaSense, platformą analityczną dla branży finansowej. Dzięki integracji z Hugging Face, pięć milionów deweloperów będzie mogło korzystać z technologii Cerebras dosłownie za pomocą jednego kliknięcia (bez potrzeby osobnej rejestracji). Natomiast AlphaSense, obsługujące 85% firm z listy Fortune 100, przechodzi na systemy Cerebras, rezygnując tym samym z usług jednego z trzech największych zamkniętych dostawców AI.

Cerebras intensyfikuje swoje wysiłki w obszarze wnioskowania AI, twierdząc, że jego procesory Wafer-Scale Engine (WSE-3) mogą działać nawet 70 razy szybciej niż rozwiązania NVIDII oparte na GPU. Jest to kluczowe w kontekście coraz bardziej złożonych modeli, które wymagają większej mocy obliczeniowej. Firma współpracuje już z takimi graczami jak Perplexity AI i Mistral AI, pomagając im w tworzeniu ultraszybkich asystentów oraz wyszukiwarek AI. James Wang, dyrektor ds. marketingu produktowego w Cerebras zaznacza, że modele takie jak Llama 3.3 70B osiągają wyniki porównywalne z GPT-4, przy znacznie niższych kosztach.