AWS wprowadza AI Factory dla klientów wymagających suwerenności danych

Amazon Web Services zaprezentował na konferencji Re:Invent 2025 nową usługę AWS AI Factory. To propozycja skierowana do instytucji, które potrzebują infrastruktury AI we własnych centrach danych, z zachowaniem najwyższych standardów bezpieczeństwa, zgodności i kontroli nad danymi. Oferta łączy sprzęt Nvidia i Trainium z usługami AWS oraz modelem operacyjnym zbliżonym do prywatnego regionu chmurowego.
AWS przenosi AI Factory do centrów danych klientów
AWS AI Factory to zestandaryzowana, specjalizowana infrastruktura wdrażana lokalnie, która działa jak prywatna instancja regionu AWS. Platforma obejmuje GPU Nvidia, układy Trainium, a także sieci i magazyny danych z portfolio AWS. Zestaw jest przeznaczony wyłącznie dla konkretnego klienta i pozwala na uruchamianie usług zarządzanych, w tym modeli AI, bez utraty kontroli nad miejscem przetwarzania lub przechowywania danych.
Wersja integrowana z Nvidią dostarcza pełen stos oprogramowania Nvidia AI oraz dostęp do platform Grace Blackwell i kolejnej generacji Vera Rubin. AWS wykorzystuje także Nitro System, Elastic Fabric Adapter oraz EC2 UltraClusters, które zapewniają przepustowość liczoną w petabitach. Firma zapowiada, że przyszłe układy Trainium4 będą kompatybilne z technologią Nvidia NVLink Fusion, co pozwoli na budowanie spójnych i heterogenicznych klastrów obliczeniowych.
Ian Buck, wiceprezes Nvidii odpowiedzialny za segment Hyperscale i HPC, podkreślił znaczenie integracji sprzętu i oprogramowania. Powiedział, że duże wdrożenia AI wymagają pełnego stosu, od GPU po warstwę usług, a współpraca z AWS umożliwia dostarczenie takich rozwiązań bezpośrednio do środowiska klienta, skracając czas budowy i pozwalając skupić się na tworzeniu wartości.
Partnerstwa, skalowanie i globalne ambicje
AI Factory rozwija koncepcję znaną z Project Rainier, czyli infrastruktury AI budowanej dla firmy Anthropic z wykorzystaniem Trainium2. Ten sam model jest fundamentem współpracy z Humain w Arabii Saudyjskiej. Organizacje ogłosiły niedawno wdrożenie około 150 000 układów AI, w tym Nvidia GB300 oraz Trainium. Według Tareqa Amina, prezesa Humain, przedsięwzięcie zapoczątkowane w nowej AI Zone ma być początkiem inwestycji o skali sięgającej wielu gigawatów i stanowić element globalnego ekosystemu rozwoju modeli AI.
Skala zapowiedzianych działań jest znacząca także w kontekście rynku amerykańskiego. AWS ujawnił niedawno plany przeznaczenia 50 mld USD na rozbudowę infrastruktury AI i HPC na potrzeby administracji USA. Podczas Re:Invent ogłoszono również Trainium3 UltraServers oraz pierwsze szczegóły dotyczące nadchodzących układów Trainium4, które mają zwiększyć gęstość mocy obliczeniowej i efektywność energetyczną.






















