Google o przyszłości AI. Podwojenie mocy co sześć miesięcy to konieczność, nie ambicja

Google stoi przed jednym z największych wyzwań infrastrukturalnych w swojej historii. Według kierownictwa spółki moc serwerowa do obsługi modeli AI musi rosnąć w tempie, którego dotąd nie notowano w branży. Pracownicy usłyszeli, że to jedyny sposób, aby sprostać gwałtownie rosnącemu popytowi na usługi generatywnej sztucznej inteligencji.
Google przyspiesza rozwój infrastruktury AI
Podczas spotkania all-hands, które odbyło się 6 listopada, Amin Vahdat kierujący obszarem infrastruktury AI w Google Cloud poinformował, że firma musi podwajać swoje możliwości moc obliczeniową dla AI co sześć miesięcy. W prezentacji znalazł się slajd opisujący „AI compute demand”, na którym wskazano, że „kolejne tysiąckrotne zwiększenie mocy będzie potrzebne w ciągu 4 do 5 lat”. Jak podkreślił Vahdat, rywalizacja o infrastrukturę jest najdroższą i najbardziej kluczową częścią wyścigu technologicznego, a realną przewagę zapewni nie najwyższy poziom wydatków, lecz połączenie niezawodności z wydajnością i skalowalnością.
Google intensywnie inwestuje w rozbudowę centrów danych, jednocześnie zwiększając efektywność modeli i rozwijając własne układy scalone. Najnowszy procesor TPU Ironwood, publicznie zaprezentowany w ubiegłym tygodniu, ma prawie 30 razy lepszą efektywność energetyczną niż pierwsza generacja układów Cloud TPU z 2018 roku. Vahdat zwrócił uwagę, że współpraca z DeepMind daje firmie przewagę w przewidywaniu, jakie modele pojawią się w kolejnych latach i jakie obciążenie wygenerują.
Presja inwestycyjna rośnie w całej branży
Informacje te padły krótko po publikacji wyników Alphabetu za trzeci kwartał. Firma już dwukrotnie podniosła prognozy wydatków inwestycyjnych na 2025 rok, tym razem do przedziału od 91 do 93 miliardów USD. Konkurenci w sektorze hyperscalerów również zwiększają nakłady. Microsoft, Amazon i Meta łącznie przekroczą w tym roku 380 miliardów USD nakładów inwestycyjnych.
Sundar Pichai, który uczestniczył w spotkaniu, przyznał, że rok 2026 zapowiada się wyjątkowo wymagająco z powodu presji rynkowej oraz konieczności zwiększenia mocy obliczeniowych. Odniósł się także do pytania pracowników o rosnące obawy dotyczące ewentualnego pęknięcia bańki AI. Pichai stwierdził, że ryzyko niedoinwestowania jest realne i że wyniki Google Cloud mogłyby być jeszcze wyższe, gdyby firma dysponowała większymi zasobami obliczeniowymi.
Znaczenie ograniczeń infrastrukturalnych
Presja na moce obliczeniowe jest bezpośrednio odczuwalna w produktach Google. Pichai podał przykład narzędzia do generowania wideo Veo. Mimo dużego zainteresowania nie mogło trafić do szerszej grupy użytkowników z powodu ograniczeń infrastrukturalnych. To pokazuje, że tempo rozwoju generatywnej AI zaczyna być określane nie tylko przez postęp algorytmiczny, ale również przez dostępność energii, przestrzeni i zaawansowanych układów scalonych.
Równocześnie dyskusja o potencjalnej bańce inwestycyjnej nabiera tempa. Dzień po publikacji świetnych wyników Nvidii, które ponownie wywołały debatę o realnej skali popytu, rynek zanotował gwałtowne spadki. Nvidia straciła 3,2%, Alphabet 1,2%. Mimo to koncerny utrzymują strategię rozbudowy infrastruktury, uznając ją za warunek utrzymania pozycji w globalnym wyścigu AI.





















