AI RADAR Trendbook: “Bez prądu nie będzie AI – Wyzwania stojące przed Data Center” – Mirosław Pisaniec, Schneider Electric

Mirosław Pisaniec Schneider Electric

Sztuczna inteligencja staje się impulsem rozwojowym porównywalnym z elektrycznością w XIX wieku. Z jednej strony otwiera drogę do innowacji, automatyzacji i nowych modeli biznesu. Z drugiej natomiast wiąże się z ogromnymi wyzwaniami energetycznymi i infrastrukturalnymi, jakich dotąd nie doświadczyliśmy. O szansach i barierach, jakie niesie AI, mówi Mirosław Pisaniec, Sales Manager (IT&OT Channels) w Schneider Electric.

 

Jakie są najważniejsze szanse i wyzwania dla biznesu związane z przyspieszoną adopcją sztucznej inteligencji?

Sztuczna inteligencja jest dla współczesnego biznesu tym, czym elektryczność była w XIX wieku – impulsem, który zmienia reguły gry. Daje szansę na niespotykane wcześniej tempo innowacji, automatyzację procesów i budowanie zupełnie nowych modeli biznesowych. Widzimy to w każdej branży: w finansach AI wspiera analizę ryzyka i personalizację usług, w przemyśle zwiększa efektywność linii produkcyjnych, a w ochronie zdrowia pomaga lekarzom szybciej diagnozować pacjentów. To nie jest już obietnica, tylko rzeczywistość, w której firmy, które wdrażają AI, wyprzedzają konkurencję.

Jednakże mamy bardzo poważne wyzwania, które często są niedostrzegane. Modele generatywne i algorytmy trenowane na gigantycznych zbiorach danych wymagają olbrzymiej mocy obliczeniowej i – co za tym idzie – energii. Deloitte prognozuje, że już w tym roku centra danych będą odpowiadać za 2 proc. globalnego zużycia energii – około 536 TWh – a do 2030 roku ta wartość się podwoi. Tempo tej transformacji jest bezprecedensowe – generatywna AI zdobyła 100 milionów użytkowników w zaledwie dwa miesiące, podczas gdy internet potrzebował na to siedmiu lat. Ta różnica najlepiej pokazuje, jak ogromne wyzwania infrastrukturalne i energetyczne musimy dziś adresować.

AI nie rozwija się w próżni. To zjawisko, które będzie kształtować globalne gospodarki i wymuszać ogromne inwestycje w infrastrukturę energetyczną. W największych hubach data center w Europie i USA czas oczekiwania na przyłączenie nowej inwestycji do sieci wynosi dziś od trzech do dziesięciu lat. Główne przyczyny to przeciążenie sieci, brak dostępnej mocy przesyłowej oraz długie procedury planistyczne i inwestycyjne. Jeśli nie wprowadzimy nowych modeli współpracy energetyki z sektorem cyfrowym, może się okazać, że największą barierą dla AI nie będzie brak danych czy technologii, ale brak prądu.

– AI stanie się przede wszystkim motorem wzrostu, a redukcja kosztów będzie traktowana jako naturalny „efekt uboczny” wdrożeń. – Mirosław Pisaniec Sales Manager (IT&OT Channels) w Schneider Electric.

 

Które kierunki rozwoju i zastosowania AI uważa Pan dziś za priorytetowe?

Zdecydowanie priorytetem numer jeden jest predykcyjne utrzymanie infrastruktury – condition-based maintenance. Dzięki czujnikom, IoT i algorytmom analizy danych możemy przewidywać potencjalne awarie i reagować, zanim do nich dojdzie. Badania pokazują, że takie podejście zmniejsza liczbę interwencji serwisowych o 40 proc., koszty operacyjne o 20 proc., a ryzyko nieplanowanych przestojów nawet o 75 proc. To nie są teoretyczne prognozy, tylko realne efekty obserwowane w projektach u klientów.

Drugim priorytetem są cyfrowe bliźniaki (digital twins). Dają możliwość symulowania pracy całych centrów danych jeszcze na etapie projektowania. Możemy sprawdzić, jak infrastruktura zareaguje na nagły wzrost obciążenia spowodowany obliczeniami AI, jak rozłoży się zapotrzebowanie na moc i czy układ chłodzenia jest wystarczający. Dzięki temu unikamy kosztownych błędów i możemy zoptymalizować obiekt, nim powstanie.

Trzecim, niezwykle ważnym obszarem są prefabrykowane moduły data center. W erze AI czas wdrożenia mocy obliczeniowych stał się nowym KPI. Mówimy dziś o „time-to-capacity” – liczy się, jak szybko można dostarczyć dodatkowe zasoby. Prefabrykaty pozwalają skrócić ten czas z wielu miesięcy do kilku tygodni. To rozwiązanie krytyczne również dla edge computingu – prognozy LF Edge pokazują, że moc urządzeń brzegowych wzrośnie z 1 GW w 2019 roku do 40 GW w 2028 roku. Bez modularnych, skalowalnych rozwiązań nie da się obsłużyć takiego skoku.

Nie można też zapominać o trendzie „AI for AI” – wykorzystaniu sztucznej inteligencji do optymalizacji działania… sztucznej inteligencji. Algorytmy potrafią sterować chłodzeniem czy zasilaniem w czasie rzeczywistym, dostosowując parametry do obciążenia generowanego przez klastry GPU. To podejście pozwala zapanować nad rosnącymi kosztami energetycznymi i poprawić efektywność całych systemów.

 

Mirosław Pisaniec Schneider Electric (2)

 

Czy postrzega Pan AI przede wszystkim jako narzędzie redukcji kosztów, czy raczej jako motor innowacji i nowych strumieni przychodów?

W krótkim horyzoncie biznes patrzy na AI przede wszystkim przez pryzmat redukcji kosztów. Predykcja awarii i optymalizacja zużycia energii przekładają się na twarde oszczędności. Koszt przestoju w centrum danych według Uptime Institute wynosi średnio od 5 600 do 9 000 dolarów na minutę, a w przypadku największych operatorów – nawet ponad milion dolarów za pojedynczy incydent. Jeśli AI pozwala zredukować ryzyko takiej sytuacji o kilkadziesiąt procent, to jest to argument, którego nie da się zignorować.

Ale jeśli spojrzymy w perspektywie pięciu czy dziesięciu lat, AI przede wszystkim tworzy nowe strumienie przychodów. PwC szacuje, że do 2030 roku sztuczna inteligencja wniesie do globalnej gospodarki 15,7 biliona dolarów – to więcej niż łączne PKB Chin i Indii. Takiej wartości nie da się wygenerować tylko przez cięcie kosztów. To są nowe modele biznesowe, nowe produkty i usługi. W finansach AI umożliwia hiperpersonalizację ofert inwestycyjnych i rozwój tzw. robo-doradztwa, w produkcji – predictive manufacturing i dynamiczną optymalizację łańcucha dostaw, a w medycynie – nowe narzędzia diagnostyczne.

Moim zdaniem w ciągu dekady akcent przesunie się właśnie na tę drugą perspektywę – AI stanie się przede wszystkim motorem wzrostu, a redukcja kosztów będzie traktowana jako naturalny „efekt uboczny” wdrożeń.

 

Jaką rolę odgrywa sztuczna inteligencja w strategii Państwa firmy i jak przebiegała droga od pierwszych decyzji wdrożeniowych do obecnych rezultatów?

W Schneider Electric traktujemy AI jako centralny element transformacji cyfrowej. Nasza droga zaczęła się od digitalizacji aktywów – wyposażyliśmy urządzenia w czujniki i systemy telemetryczne, które zaczęły dostarczać dane w czasie rzeczywistym. Następnie wdrożyliśmy analitykę predykcyjną i algorytmy uczenia maszynowego. Dzięki nim możemy przewidywać awarie UPS, analizować zużycie komponentów chłodniczych czy wykrywać anomalie w pracy rozdzielnic średniego napięcia.

Dziś AI jest integralną częścią naszych usług i oprogramowania, takich jak EcoStruxure, rozwiązań dla mikrosieci czy systemów zarządzania energią w budynkach i centrach danych. Wykorzystujemy je do optymalizacji pracy całych systemów energetycznych i chłodniczych, prognozowania obciążeń i redukcji emisji CO₂. Efekty są konkretne: stabilniejsze działanie infrastruktury, niższe rachunki za energię i mniejszy ślad węglowy. To nie są już projekty pilotażowe, ale standard wdrażany w setkach obiektów na całym świecie.

Co ważne, AI zmieniła też filozofię serwisu. Dawniej serwisant przyjeżdżał, żeby naprawić awarię. Dziś przyjeżdża z gotową diagnozą, bo system wcześniej przewidział problem i wskazał, które części należy wymienić. To ogromna zmiana jakościowa – dla klienta oznacza mniejsze ryzyko przestoju i większą przewidywalność działania.

 

Mirosław Pisaniec Schneider Electric (2)

 

Jaki aspekt sztucznej inteligencji jest dziś najbardziej niedoceniany w debacie publicznej lub biznesowej?

Najbardziej niedoceniony jest wpływ AI na energetykę. Jedno zapytanie do modelu generatywnego potrafi zużyć dziesięciokrotnie więcej energii niż zwykłe wyszukanie w internecie. Jeśli przemnożymy to przez miliardy użytkowników, otrzymujemy obciążenie, które może całkowicie zmienić bilans energetyczny świata. Szacuje się, że w USA do 2030 roku AI może odpowiadać za 9 proc. całkowitego zapotrzebowania na energię elektryczną.

Rzadko mówi się też o tym, że AI może być częścią odpowiedzi na ten problem. Algorytmy sterujące chłodzeniem, dynamiczne zarządzanie przepływem powietrza oraz predykcja zużycia energii pozwalają obniżyć koszty i zmniejszyć presję na sieć. Znamy przypadki, w których dzięki takim rozwiązaniom udało się zredukować zużycie energii w centrum danych o kilkanaście procent.

W debacie publicznej niedoceniany jest też aspekt geopolityczny. Centra danych i AI stają się nową infrastrukturą krytyczną. Tak jak kiedyś strategiczne były rafinerie czy porty, dziś strategiczne stają się klastry obliczeniowe i zdolności do trenowania modeli. To zmienia układ sił w gospodarce i polityce globalnej.

– Centra danych i AI stają się nową infrastrukturą krytyczną. Tak jak kiedyś strategiczne były rafinerie czy porty, dziś strategiczne stają się klastry obliczeniowe i zdolności do trenowania modeli. – Mirosław Pisaniec, Sales Manager (IT&OT Channels) w Schneider Electric.

 

Współpracuje Pan blisko z kanałem partnerskim Schneider Electric. Jak zmieniają się rozmowy z partnerami, gdy projekty AI zwiększają gęstość mocy i podnoszą wymagania w zakresie zasilania oraz chłodzenia w centrach danych i na brzegu sieci?

Rozmowy zmieniły się radykalnie. Dziś punktem wyjścia jest energia – jak ją pozyskać, jak dostarczyć i jak odprowadzić rosnące ilości ciepła. Coraz częściej rozmawiamy o Liquid Cooling (chłodzeniu cieczą) i rozwiązaniach hybrydowych, które stają się koniecznością przy gęstościach rzędu 30–50 kW na szafę, a w klastrach AI nawet powyżej 100 kW.

Pojawiają się pytania o referencyjne architektury przygotowane specjalnie pod obciążenia AI, tak aby integratorzy mogli szybciej proponować klientom sprawdzone rozwiązania. Równocześnie coraz większe zainteresowanie budzi integracja systemów z magazynami energii (BESS) i mikrosieciami – bo to one pozwalają stabilizować obciążenie i lepiej zarządzać kosztami.

Jeśli chodzi o infrastrukturę brzegową, kluczowe są dziś szybkość wdrożenia i skalowalność. Firmy nie mają już czasu na wielomiesięczne projekty – potrzebują infrastruktury, którą można dostarczyć w kilka tygodni. Modułowe centra danych stały się więc naturalnym wyborem. Są przewidywalne pod kątem PUE, fabrycznie przetestowane i łatwe do zdalnego monitorowania, co w rozproszonej architekturze ma ogromne znaczenie.

Warto też podkreślić, że partnerzy wchodzą dziś w zupełnie nowe obszary. Coraz częściej, zamiast oferować pojedyncze elementy – UPS czy klimatyzację precyzyjną – starają się proponować całe architektury energetyczne. Zdarza się, że wspólnie ze Schneider Electric angażują się w kwestie, które dawniej leżały wyłącznie po stronie operatorów sieci czy firm inżynieryjnych: analizę lokalizacji inwestycji, optymalizację przyłączeń czy doradztwo w zakresie wykorzystania odnawialnych źródeł energii.

To wciąż ewolucja, a nie codzienność, ale kierunek jest jasny: resellerzy i integratorzy chcą być bliżej strategicznych decyzji klientów.

Dzięki temu partnerzy stopniowo stają się nie tylko dostawcami sprzętu, lecz także doradcami, którzy pomagają klientom odnaleźć się w nowej rzeczywistości: wysokiej gęstości mocy, ograniczonych przyłączach energetycznych, rosnącej presji regulacyjnej i wymogach ESG. To ogromna zmiana roli partnera – z dostawcy komponentów przeistacza się on w przewodnika klienta w erze AI, a Schneider Electric wspiera tę transformację, dostarczając wiedzę, narzędzia i sprawdzone rozwiązania.

 

Które innowacje w obszarze zasilania bezprzerwowego, mikrocentrów danych oraz oprogramowania do monitoringu infrastruktury uważa Pan za najbardziej obiecujące dla wdrożeń AI pod kątem efektywności energetycznej i niezawodności?

Jednym z kluczowych obszarów jest integracja z magazynami energii (BESS) i mikrosieciami. W kontekście rosnących ograniczeń w przyłączeniach energetycznych to rozwiązania, które nie tylko zwiększają niezależność od sieci, ale także umożliwiają aktywne uczestnictwo w programach Demand Side Response. Firmy mogą dzięki nim stabilizować własne obciążenia, obniżać koszty energii i jednocześnie wspierać system energetyczny w momentach szczytowego zapotrzebowania. To nowa jakość w zarządzaniu zasilaniem bezprzerwowym – już nie tylko backup na wypadek awarii, ale aktywny element strategii energetycznej przedsiębiorstwa.

Równocześnie ogromne znaczenie zyskuje chłodzenie cieczą. Jeszcze kilka lat temu traktowane jako ciekawostka, dziś Liquid Cooling staje się koniecznością. Nowoczesne procesory i karty GPU o TDP sięgającym 700 W nie mogą być efektywnie chłodzone samym powietrzem. Widzimy dynamiczny rozwój hybrydowych układów chłodzenia oraz rozwiązań direct-to-chip, które w perspektywie kilku lat będą rosnąć w tempie dwucyfrowym. Co ważne, systemy oparte na chłodzeniu cieczą, mimo większej złożoności, charakteryzują się wyższą przewidywalnością i stabilnością, co ma kluczowe znaczenie w pracy aplikacji krytycznych.

Chciałbym też zwrócić uwagę na innowacje w zakresie wykorzystania ciepła odpadowego. Centra danych, które przez lata były postrzegane wyłącznie jako konsumenci energii, coraz częściej stają się dostawcami wartości dla lokalnych społeczności. Google w Finlandii ogrzewa papiernię ciepłem pochodzącym z serwerowni, a Equinix w Paryżu zasila w ten sposób obiekty olimpijskie. To pokazuje, że nowoczesne centra danych mogą wpisywać się w gospodarkę obiegu zamkniętego – nie tylko minimalizując swój ślad węglowy, ale wręcz wspierając lokalną energetykę i infrastrukturę społeczną.

 

 

Aby bezpłatnie pobrać cały raport AI RADAR – Trendbook (ponad 400 stron, bezcennej wiedzy o AI) kliknij w poniższy baner: