Vera Rubin NVL72 już działa w Azure, Microsoft wyprzedził Google i AWS

Microsoft jako pierwszy hyperscaler poinformował o uruchomieniu systemu Nvidia Vera Rubin NVL72. To kolejny etap eskalacji wyścigu o infrastrukturę sztucznej inteligencji, który rozgrywa się między największymi dostawcami chmury. W tle są ogromne inwestycje, nowe architektury i rosnące zapotrzebowanie na moc obliczeniową.

Microsoft ogłosił, że jako pierwszy uruchomił system Nvidia Vera Rubin NVL72 w środowisku testowym. Informację przekazał Satya Nadella, wskazując, że to element przygotowań do budowy kolejnej generacji infrastruktury AI. Jak wynika z komunikatu firmy, system działa obecnie w laboratorium, a jego wdrożenie w centrach danych Azure ma rozpocząć się w najbliższych miesiącach.

To ważny sygnał, ponieważ platforma Vera Rubin jest następcą obecnej generacji Blackwell i stanowi fundament dla kolejnego skoku wydajności. Nvidia deklaruje nawet pięciokrotny wzrost mocy inferencji oraz około 3,5-krotny wzrost wydajności treningu modeli względem poprzedniej architektury.

System NVL72 to rozwiązanie w skali całej szafy serwerowej, które integruje 36 procesorów CPU Vera oraz 72 układy GPU Rubin. Całość została zaprojektowana jako w pełni chłodzona cieczą infrastruktura o wysokiej gęstości mocy. Nvidia podkreśla też znaczenie konstrukcji modułowej bez klasycznego okablowania, co skraca czas instalacji z około dwóch godzin do zaledwie kilku minut.

 

Skala inwestycji rośnie

Microsoft nie jest jedynym graczem na boisku. Google Cloud zapowiedział udostępnienie systemów Vera Rubin NVL72 w drugiej połowie 2026 roku, a platforma ma zostać zintegrowana z usługą AI Hypercomputer, czyli środowiskiem zoptymalizowanym pod obciążenia sztucznej inteligencji.

Amazon Web Services idzie jeszcze dalej pod względem skali. Firma zapowiedziała wdrożenie ponad miliona układów Nvidia, obejmujących zarówno architekturę Blackwell, jak i Rubin, w ciągu najbliższych 12 miesięcy. To jeden z największych programów inwestycyjnych w historii infrastruktury chmurowej.

Równolegle rozwijają się tzw. neocloudy. Nebius planuje duże wdrożenia Rubin w ramach kontraktu z Meta o wartości do 27 mld USD, a Nscale buduje klaster o mocy 1,35 GW oparty na tej architekturze, realizowany we współpracy z Microsoftem. CoreWeave i Lambda również zapowiadają dostępność nowych systemów jeszcze w 2026 roku.

 

AI zmienia architekturę centrów danych

Nowa generacja układów Nvidia to nie tylko wzrost wydajności, ale też zmiana podejścia do budowy centrów danych. Systemy takie jak NVL72 są projektowane jako spójne, skalowalne jednostki, które łączą obliczenia, sieć i pamięć w jedną platformę.

To odpowiedź na rosnące wymagania modeli AI, szczególnie tych o charakterze agentowym, które wymagają ogromnych zasobów do inferencji w czasie rzeczywistym. Jednocześnie rośnie znaczenie efektywności energetycznej oraz chłodzenia cieczą, które staje się standardem w nowoczesnych centrach danych.

Według danych branżowych przedstawianych podczas Nvidia GTC 2026, popyt na infrastrukturę AI przekracza obecnie możliwości produkcyjne, a wartość zamówień na nowe systemy liczona jest w setkach miliardów dolarów.

Microsoft, uruchamiając Vera Rubin NVL72 jako pierwszy, wysyła jasny sygnał. W wyścigu o dominację w AI liczy się nie tylko oprogramowanie, ale przede wszystkim dostęp do najbardziej zaawansowanego sprzętu.