Microsoft przedstawi podgląd niestandardowego układu Cobalt i udostępni AMD MI300X za pośrednictwem Azure

Microsoft uruchomi podgląd swoich niestandardowych chipów Azure Cobalt 100 na konferencji deweloperów Build w przyszłym tygodniu.

Serwis TechCrunch poinformował, że Scott Guthrie, EVP grupy Microsoft Cloud and AI, powiedział analitykom, iż chipy, które zostały po raz pierwszy ogłoszone w listopadzie 2023 roku, będą oferować o 40 procent lepszą wydajność w porównaniu z innymi chipami Arm na rynku.

Guthrie powiedział, że Snowflake i Adobe należą do klientów, którzy już korzystają z nowych chipów.

Procesor Microsoft Azure Cobalt jest przeznaczony do ogólnych obciążeń, ze szczególnym uwzględnieniem wydajności na wat. Kiedy chipy zostały ogłoszone po raz pierwszy, Microsoft podał, że będą używane w wewnętrznych produktach Microsoft, takich jak serwery Azure SQL i Microsoft Teams.

Cobalt 100 ma 128 rdzeni Neoverse N2 na Armv9 i 12 kanałów DDR5 i jest oparty na platformie Arm’s Neoverse Genesis CSS (Compute Subsystem). Microsoft powiedział także analitykom, że planuje udostępnić klientom akceleratory MI300X AMD od przyszłego tygodnia. Sprzedaż procesorów graficznych będzie odbywać się za pośrednictwem firmowej usługi przetwarzania w chmurze Azure. Zapowiedziany po raz pierwszy w grudniu 2023 r. akcelerator MI300X jest również zbudowany na architekturze CDNA 3 i ma 1,5 razy większą pojemność pamięci (192 GB) i 1,7 razy większą teoretyczną przepustowość pamięci (5,3 TB/s) niż poprzednia wersja M1250X, zapewniając prawie 40 procent więcej mocy obliczeniowej jednostki.

AMD twierdzi również, że jej nowe procesory graficzne MI300X przewyższają szybkością układy H100 firmy Nvidia, oferując 1,3 petaflopa wydajności FP16 i 2,6 petaflopa wydajności FP8.

Według TechCrunch, Guthrie opisał MI300X jako „najbardziej opłacalny obecnie procesor graficzny dla Azure OpenAI”.

Oprócz udostępnienia MI300X, Microsoft opracował również własny akcelerator AI o nazwie Azure Maia 100. Zbudowany na architekturze Arm, chip został zoptymalizowany pod kątem zadań sztucznej inteligencji i generatywnej sztucznej inteligencji i jest używany w centrach danych w chmurze firmy.