Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Intel Xeon Scalable 3 generacji – premiera nowych procesorów serwerowych Intela. Do 224 rdzeni w jednym komputerze dzięki nowym układom Cooper Lake.

Intel zaprezentował nowe procesory serwerowe Xeon Scalable. Jest to już trzecia generacja tych układów. Nosi nazwę Cooper Lake i pomimo iż pozostaje w litografii 14 nm, to jako cała platforma przynosi nieco nowości. 

W trakcie prezentacji przedstawiciele Intela podkreślali znaczenie platform serwerowych dla współczesnego świata. Tej tezie paradoksalnie sprzyja czas pandemii – podczas gdy większość osób, które mają tę możliwość pracuje zdalnie, zapotrzebowanie na moc obliczeniową centrów danych i platform chmurowych stale rośnie. A czeka nas tylko dalszy wzrost zapotrzebowania na moc obliczeniową – coraz więcej usług będzie przenosiło się w pełni do chmury, a łączność 5G wymusi jeszcze szybsze ich przetwarzanie. Coraz bardziej złożone AI także się upowszechni. Nowe procesory Intel Xeon Scalable 3 generacji mają w tym wszystkim pomóc.

Zaprezentowano łącznie 11 nowych jednostek skupionych w rodzinach Xeon Gold (5 procesorów) i Xeon Platinum (6 procesorów). Te dwie sub-serie odróżnia kilka cech. Przede wszystkim modele Platinium  mogą pracować z szybszymi pamięciami RAM (DDR4-3200), podczas gdy Gold są ograniczone do DDR4-2933. “Platynowe” Xaony mogą też pracować w konfiguracjach zwierających 8 CPU, podczas do “złota” linia ograniczona jest do 4 CPU w jednym komputerze. Sprawia to, że w 8-procesorowej konfiguracji można zmieścić aż 224 rdzenie, które są w stanie pracować nad 448 wątkami jednocześnie.

Dwa najmocniejsze modele, Xeon Platinum 8380HL i Xeon Platinum 8380H dysponują 28 rdzeniami, co przy obsłudze Hyper Threadingu daje 56 aktywnych wątków na CPU. Mają też to samo taktowanie (2,9 GHz bazowo/4,3 GHz Turbo). Różnią się natomiast obsługą pamięci RAM – aż do 4,5 TB w przypadku mocniejszej z jednostek oraz “tylko” 1,12 TB w przypadku tańszego modelu.

Te CPU zresztą należy rozpatrywać jako całą platformę, nie tylko same procesory. Intel twierdzi, że umożliwiając większą wydajność i niższy całkowity koszt posiadania w różnych infrastrukturach, od zastosowań korporacyjnych po techniczne, platforma Intel Xeon Scalable jest przeznaczona do modernizacji centrów danych w celu zwiększenia wydajności operacyjnej, która prowadzi do
lepszego całkowitego kosztu posiadania (TCO) i wyższej wydajności dla użytkowników.

Intel ulepszył także w nowych CPU swój DL Boost, wraz z 16-bitowym przetwarzaniem zmiennoprzecinkowym blfoat16, oraz udoskonalił instrukcje wektorowej sieci neuronowej (VNNI) co ma w efekcie prowadzić do niemal dwukrotnego (x 1,93) przyspieszenia trenowania AI w porównaniu z poprzednią generacją. Oczywiście nowe CPU zachowały liczne cechy poprzedników, takie jak obsługa nośników Optane czy instrukcji AVX512.