Branża centrów danych w 2025 r. podejmie wysiłki na rzecz wspierania mechanizmów AI, udostępniania ich, wykorzystywania oraz wprowadzania regulacji prawnych
Vertiv, globalny dostawca krytycznej infrastruktury cyfrowej oraz rozwiązań zapewniających ciągłość jej działania, opublikował swoje prognozy trendów związanych z wpływem sztucznej inteligencji na przekształcanie branży centrów danych w 2025r.
Eksperci Vertiv przewidują wzrost innowacyjności i stopnia integracji w tym obszarze, których celem jest wsparcie środowisk obliczeniowych o wysokiej gęstości, zwiększenie stopnia kontroli mechanizmów sztucznej inteligencji za pomocą regulacji prawnych, a także wywieranie coraz większego nacisku na kwestie związane ze zrównoważonym rozwojem i cyberbezpieczeństwem.
– Nasi eksperci jako trendy na 2024 r. poprawnie zidentyfikowali rozprzestrzenianie się sztucznej inteligencji oraz potrzebę wdrażania bardziej złożonych strategii, uwzględniających chłodzenie cieczą i powietrzem. Oczekujemy, że aktywność firm w tym obszarze jeszcze przyspieszy i ewoluuje w 2025 r. – powiedział Giordano (Gio) Albertazzi, dyrektor generalny Vertiv. – Zwiększona gęstość rozwiązań odpowiedzialnych za obliczenia sztucznej inteligencji przyczynia się do wzrostu poboru mocy do trzy- i czterocyfrowych wartości kilowatów na szafę rack. Z tego powodu nigdy nie istniało większe zapotrzebowanie na zaawansowane i skalowalne rozwiązania do zasilania i chłodzenia tych szaf, minimalizowania ich wpływu na środowisko oraz wspierania procesu powstawania rozbudowanych „fabryk” sztucznej inteligencji. Przewidujemy, że w 2025 r. nastąpi znaczny postęp w tym zakresie, a także wzrost wymagań naszych klientów.
Oto lista trendów, które według ekspertów Vertiv najprawdopodobniej zostaną zaobserwowane w branży centrów danych w 2025 r.:
- Innowacje w obszarze infrastruktury zasilania i chłodzenia, aby nadążyć za wzrostem gęstości środowisk obliczeniowych. W 2025 r. będzie się nasilał wpływ intensywnych zadań obliczeniowych na branżę centrów danych, konieczne więc stanie się radzenie sobie na różne sposoby z nagłymi zmianami. Zaawansowane procesy obliczeniowe nadal będą przenoszone z CPU na GPU, aby wykorzystać równoległą moc obliczeniową nowoczesnych układów graficznych oraz możliwość pracy w wyższych temperaturach. Spowoduje to kontynuację wzrostu obciążenia istniejących systemów zasilania i chłodzenia, a także popchnie operatorów centrów danych w kierunku rozwiązań bezpośredniego chłodzenia procesorów cieczą (cold-plate cooling) oraz chłodzenia zanurzeniowego, które usuwają nadmiar ciepła w szafie.
- Szafy wyposażone w urządzenia odpowiedzialne za obliczenia sztucznej inteligencji będą wymagały zasilaczy UPS, akumulatorów, sprzętu do dystrybucji zasilania oraz rozdzielnic o większej gęstości mocy, aby być w stanie obsłużyć systemy AI, których obciążenie może się błyskawicznie zmieniać z pracy w trybie jałowym na poziomie 10% do przeciążenia sięgającego 150%.
- Hybrydowe systemy chłodzenia, działające w konfiguracji ciecz-ciecz, ciecz-powietrze i ciecz-czynnik chłodniczy, będą rozwijane do postaci szaf rack instalowanych w obwodzie i rzędach, zarówno w nowych, jak też już istniejących obiektach.
- Systemy chłodzenia cieczą będą coraz częściej łączone z własnymi, specjalizowanymi zasilaczami UPS o wysokiej gęstości, aby zapewnić ciągłość działania.
- Serwery będą w coraz większym stopniu integrowane z infrastrukturą niezbędną do ich obsługi, w tym z fabrycznie zainstalowanymi mechanizmami chłodzenia cieczą, co ostatecznie zwiększy wydajność produkcji i montażu, przyspieszy wdrażanie, zmniejszy powierzchnię zajmowaną przez sprzęt oraz zwiększy efektywność energetyczną całego systemu.
- Priorytetowe traktowanie przez centra danych wyzwań związanych z dostępnością energii. Przeciążone sieci energetyczne oraz gwałtownie rosnące zapotrzebowanie na moc elektryczną zmieniają sposób, w jaki centra danych zużywają energię. Są one odpowiedzialne za konsumpcję średnio 1-2% światowej mocy, ale z powodu wzrostu popularności sztucznej inteligencji zużycie prawdopodobnie zwiększy się do poziomu 3-4% do 2030 r. Ten spodziewany wzrost może spowodować obciążenie sieci, z którym wiele zakładów energetycznych nie będzie w stanie sobie poradzić, co przyciągnie uwagę podmiotów regulacyjnych na całym świecie, a w efekcie może skutkować potencjalnymi ograniczeniami dotyczącymi budowy centrów danych i zużycia energii. Wpłynie także na wzrost kosztów oraz emisję dwutlenku węgla, które operatorzy centrów danych starają się kontrolować. Presja ta zmusi firmy do priorytetowego traktowania efektywności energetycznej i zrównoważonego rozwoju w jeszcze większym stopniu niż w przeszłości.
W 2024 r. eksperci Vertiv przewidzieli wystąpienie trendu przechodzenia w kierunku alternatywnych źródeł energii i wdrażania mikrosieci. Prognozujemy, że w 2025 r. prognozy te mogą okazać się szybko nabierającą tempa rzeczywistością, w ramach której priorytetowo traktowane będzie poszukiwanie energooszczędnych rozwiązań i nowatorskich alternatywnych rozwiązań energetycznych. Ogniwa paliwowe oraz alternatywny skład chemiczny akumulatorów są coraz bardziej dostępne do wykorzystania w mikrosieciach energetycznych. W dłuższej perspektywie możliwe będzie wdrażanie opracowywanych przez wiele firm małych modułowych reaktorów dla centrów danych oraz innych dużych odbiorców energii – ich dostępność spodziewana jest pod koniec dekady. Natomiast już w 2025 r. widoczne będą wyraźne postępy w tym obszarze.
- Współpraca branżowych graczy przy rozwoju rozwiązań specjalizujących się w obliczeniach sztucznej inteligencji (AI Factory). Średnia gęstość obciążenia w szafach rack stale rosła w ciągu ostatnich kilku lat – w 2020 r. wynosiła 8,2 kW. W tym kontekście prognozy dotyczące poboru mocy przez rozwiązania specjalizujące się w obliczeniach sztucznej inteligencji, które mają wynosić od 500 do 1000 kW, są dla branży szokujące i bezprecedensowe. W wyniku tych szybkich zmian twórcy procesorów, klienci, producenci infrastruktury zasilania i chłodzenia, przedsiębiorstwa użyteczności publicznej oraz inni interesariusze z branży będą w coraz większym stopniu zmuszeni do współpracy w celu opracowania i wspierania przejrzystych planów działania umożliwiających wdrażanie sztucznej inteligencji. Współpraca ta będzie dotyczyła także narzędzi programistycznych bazujących na AI, aby możliwe było przyspieszenie projektowania oraz tworzenia standardowych i niestandardowych projektów. W nadchodzącym roku producenci układów, projektanci infrastruktury i klienci będą w coraz większym stopniu współpracować i dążyć do nawiązania produkcyjnego partnerstwa, które umożliwi prawdziwą integrację IT oraz infrastruktury.
- Sztuczna inteligencja jednocześnie utrudnia i ułatwia zapewnienie cyberbezpieczeństwa. Rosnąca częstotliwość i dotkliwość ataków ransomware skłania do nowego, szerszego spojrzenia na procesy cyberbezpieczeństwa oraz rolę, jaką społeczność centrów danych odgrywa w zapobieganiu takim zagrożeniom. W jednej trzeciej wszystkich ataków w ubiegłym roku wykorzystano jakąś formę oprogramowania ransomware lub próbę wymuszenia, zaś obecnie cyberprzestępcy stosują narzędzia bazujące na sztucznej inteligencji, aby móc przyspieszyć tempo swoich ataków, zwiększyć ich zakres i sposób wyrafinowania. Ataki coraz częściej rozpoczynane są od wspieranego przez mechanizmy AI włamania do systemów sterowania, wbudowanych urządzeń lub podłączonego do sieci sprzętu i systemów infrastruktury, które nie zawsze zostały zaprojektowane tak, aby spełniać te same wymagania bezpieczeństwa, co inne komponenty sieci. Bez należytej staranności nawet najbardziej zaawansowane centrum danych może stać się bezużyteczne.
Ponieważ cyberprzestępcy coraz bardziej wykorzystują sztuczną inteligencję do zwiększania częstotliwości ataków, eksperci ds. bezpieczeństwa cyfrowego, administratorzy sieci i operatorzy centrów danych będą musieli nadążać za nimi, opracowując własne zaawansowane rozwiązania ochronne – także bazujące na AI. Te wysiłki w zakresie cyberbezpieczeństwa muszą być podejmowane ze względu na niuanse dotyczące zmieniającego się charakteru ataków, ich źródeł i częstotliwości – mimo faktu, że fundamenty, najlepsze praktyki oraz konieczność zachowania wyjątkowej staranności przy głębokiej analizie zagrożeń pozostają niezmienne.
- Rządowe oraz branżowe organy regulacyjne zajmą się aplikacjami AI i zużyciem energii. Podczas gdy prognozy ekspertów Vertiv na 2023 r. koncentrowały się na rządowych regulacjach dotyczących zużycia energii, w 2025 r. należy spodziewać się, że przepisy będą w coraz większym stopniu dotyczyć samego wykorzystania sztucznej inteligencji. Już obecnie rządy i organy regulacyjne na całym świecie prześcigają się w ocenach konsekwencji płynących z AI oraz opracowywaniu zasad korzystania z niej. Zaobserwowano też trend w kierunku wdrażania autonomicznych mechanizmów sztucznej inteligencji – takich, nad pracą i rozwojem których kontrolę może sprawować dany kraj. Objęcie regulacjami sztucznej inteligencji, aby zapewnić sobie możliwość jej wdrażania i zarządzania, jest przedmiotem wprowadzonej w Unii Europejskiej ustawy o sztucznej inteligencji oraz chińskiego prawa cyberbezpieczeństwa (CSL), jak też ram zarządzania bezpieczeństwem sztucznej inteligencji. Pracę własnego autonomicznego superkomputera, wykonującego obliczenia sztucznej inteligencji, niedawno zainaugurowała Dania, a także wiele innych krajów podjęło własne tego typu projekty oraz rozpoczęło procesy legislacyjne w celu dalszego tworzenia ram regulacyjnych, co wskazuje na rozwój tego trendu. Dlatego nieunikniona jest potrzeba wypracowania pewnej formy wytycznych, zaś wprowadzenie rządowych ograniczeń jest nie tylko możliwe, ale wręcz prawdopodobne.
Początkowo działania będą skoncentrowane na zastosowaniach rozwiązań technicznych, ale w miarę nasilania się nacisku na ograniczenie zużycia energii i wody oraz emisji gazów cieplarnianych, regulacjami mogą zostać objęte różne rodzaje zastosowań sztucznej inteligencji i zużycia zasobów w centrach danych. Jednak w 2025 r. zarządzanie tym obszarem nadal będzie miało charakter lokalny lub regionalny, a nie globalny, zaś spójność przepisów i rygorystyczność ich egzekwowania będą bardzo zróżnicowane.