AI napędza boom na centra danych. Do 2030 r. nawet połowa obciążeń może być związana ze sztuczną inteligencją

Dynamiczny rozwój sztucznej inteligencji zaczyna zmieniać nie tylko sposób działania firm, ale również architekturę infrastruktury IT. Systemy oparte na AI generują miliony zapytań obliczeniowych dziennie, co przekłada się na gwałtowny wzrost zapotrzebowania na moc obliczeniową, przepustowość sieci i zasoby centrów danych. Według analiz IDC globalne wydatki na infrastrukturę wspierającą sztuczną inteligencję mogą przekroczyć 200 mld USD do 2028 r., a prognozy Bain & Company wskazują, że do 2030 r. nawet 50 proc. obciążeń może pochodzić z systemów sztucznej inteligencji

 

Miliony zapytań obliczeniowych

Każde użycie modelu sztucznej inteligencji oznacza tzw. inferencję, czyli analizę danych przez już wytrenowany model. W praktyce oznacza to ogromną liczbę operacji obliczeniowych wykonywanych w czasie rzeczywistym. W wielu zastosowaniach biznesowych – takich jak analiza obrazu, przetwarzanie języka czy analiza danych z sensorów – liczba zapytań obliczeniowych może sięgać milionów dziennie. Rosnąca liczba takich operacji powoduje, że systemy AI stają się jednym z największych konsumentów zasobów obliczeniowych w infrastrukturze IT.

W wielu projektach opartych na sztucznej inteligencji kluczowym wyzwaniem przestaje być samo oprogramowanie, a staje się nim infrastruktura zdolna obsłużyć ogromną liczbę operacji obliczeniowych i wolumenów danych. Systemy AI wymagają środowisk o bardzo wysokiej gęstości mocy obliczeniowej, które nie są dostępne w tradycyjnej infrastrukturze IT — mówi Jakub Gwóźdź, Dyrektor Działu Rozwoju Produktów w Polcom.

 

Boom inwestycyjny w centra danych

Dynamiczny rozwój sztucznej inteligencji staje się jednym z głównych motorów napędzających inwestycje w infrastrukturę centrów danych. Według analiz rynkowych, aby sprostać rosnącemu zapotrzebowaniu na moc obliczeniową i przetwarzanie danych, globalna pojemność centrów danych w tej dekadzie może nawet się potroić.

Obserwujemy coraz większe zapotrzebowanie na usługi chmury obliczeniowej i systemy IT o wysokiej gęstości mocy, szczególnie w projektach związanych z wykorzystaniem sztucznej inteligencji i uczenia maszynowego. To jeden z kluczowych powodów, dla których inwestujemy w rozwój naszych centrów danych oraz rozbudowę oferty platform obliczeniowych dedykowanych tego typu zastosowaniom — podkreśla Jakub Gwóźdź z Polcom.

 

Rozbudowa infrastruktury IT i centrów danych to nie tylko odpowiedź na bieżące trendy technologiczne, ale także strategiczna inwestycja w przyszłość gospodarki cyfrowej. Skalowalne, energooszczędne i bezpieczne środowiska przetwarzania danych staną się fundamentem dla kolejnej fali innowacji w obszarze AI, analityki danych i usług chmurowych.

 

Synergia chmury i AI

Rosnące znaczenie infrastruktury IT potwierdzają również wyniki badania „Barometr cyfrowej transformacji polskiego biznesu 2025-2026”, przygotowanego przez Polcom. Z raportu wynika, że 62 proc. firm planuje zwiększyć inwestycje w chmurę obliczeniową do 2026 r., traktując ją jako podstawę rozwoju nowoczesnych usług cyfrowych.

Przedsiębiorstwa wskazują, że głównymi powodami wdrażania chmury są skalowalność infrastruktury (73 proc.), możliwość szybkiego zwiększania mocy obliczeniowej oraz optymalizacja kosztów utrzymania IT (52 proc.). Dla wielu organizacji chmura staje się także fundamentem wdrażania sztucznej inteligencji i automatyzacji procesów biznesowych.

Implementacja sztucznej inteligencji w praktyce bardzo często zaczyna się od modernizacji infrastruktury IT. Firmy potrzebują środowisk, które pozwalają szybko skalować zasoby obliczeniowe i przetwarzać duże wolumeny danych. Dlatego rozwój AI idzie dziś w parze z rosnącym znaczeniem chmury obliczeniowej — podkreśla  Jakub Gwóźdź.

 

Ekspert Polcom wskazuje również, że w najbliższych latach rozwój sztucznej inteligencji będzie wymagał nowego podejścia do projektowania infrastruktury IT. Coraz częściej będzie ona łączyć kilka środowisk obliczeniowych – od systemów edge computing, przez lokalne centra danych. Taki model pozwala lepiej zarządzać rosnącą skalą danych oraz ograniczyć opóźnienia w przetwarzaniu informacji w czasie rzeczywistym.