Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Rosnące koszty inferencji hamują adopcję AI w przedsiębiorstwach

Wzrost wydatków na infrastrukturę chmurową nie przekłada się automatycznie na masową adopcję sztucznej inteligencji przez firmy. Najnowszy raport Canalys wskazuje, że główną barierą stają się trudne do przewidzenia i szybko rosnące koszty inferencji, które wywołują obawy wśród klientów korporacyjnych.

 

Rekordowe wydatki na chmurę, ale rosnąca niepewność wokół AI

Według najnowszych danych Canalys, w pierwszym kwartale 2025 roku firmy na całym świecie wydały aż 90,9 miliarda dolarów (ok. 360 mld zł) na usługi infrastruktury i platformy chmurowe (IaaS i PaaS) oferowane przez takich gigantów jak Microsoft, Amazon Web Services (AWS) i Google Cloud. To wzrost o 21% rok do roku – napędzany przez migrację coraz większej liczby obciążeń do chmury oraz eksperymenty z generatywną sztuczną inteligencją.

Mimo dynamicznego rozwoju technologii AI i rosnącej liczby wdrożeń, przedsiębiorstwa coraz częściej napotykają na poważne wyzwania związane z przewidywaniem kosztów korzystania z usług inferencyjnych.

„W przeciwieństwie do treningu modeli, który stanowi jednorazowy wydatek, inferencja generuje powtarzalne, często trudne do przewidzenia koszty operacyjne” – podkreśla Rachel Brindley, senior director w Canalys.

 

Inferencja – kosztowna bariera masowej komercjalizacji AI

Z raportu Canalys wynika, że przedsiębiorstwa, które wdrażają AI na większą skalę, są zmuszone skupiać się na efektywności kosztowej inferencji. Analizują różnice między modelami, platformami chmurowymi i architekturami sprzętowymi (GPU kontra wyspecjalizowane akceleratory). Coraz powszechniejsze są modele rozliczeń za usługę AI bazujące na liczbie przetworzonych tokenów lub wywołań API, co utrudnia planowanie wydatków.

„Kiedy koszty inferencji są niestabilne lub zbyt wysokie, firmy ograniczają wykorzystanie modeli, upraszczają architekturę lub stosują AI wyłącznie w kluczowych, najbardziej opłacalnych obszarach. W efekcie potencjał AI wciąż pozostaje niewykorzystany.” – tłumaczy Yi Zhang, badacz Canalys.

Rynek odnotował już ekstremalne przypadki, jak choćby amerykańska firma 37signals, twórca platformy Basecamp, która po rocznym rachunku za chmurę przekraczającym 3 mln dolarów, zdecydowała się na powrót do własnej infrastruktury IT.

 

Chmura publiczna pod presją, alternatywy zyskują na znaczeniu

Rosnąca złożoność i trudność w przewidywaniu kosztów sprawiają, że część firm zaczyna rozważać alternatywne rozwiązania – takie jak kolokacja czy wyspecjalizowani dostawcy hostingu AI, niezależni od największych graczy chmurowych. Podczas Canalys Forum EMEA w Berlinie, główny analityk Alastair Edwards zwracał uwagę, że publiczna chmura może nie być najkorzystniejszym środowiskiem dla inferencji AI na dużą skalę ze względu na eskalujące koszty.

Jednocześnie konkurencja na rynku usług chmurowych staje się coraz bardziej widoczna – AWS, Azure i Google Cloud odpowiadają za 65% światowych wydatków na IaaS i PaaS, ale Microsoft i Google stopniowo zdobywają udziały kosztem AWS, którego wzrost zwolnił do 17% rok do roku. Tymczasem konkurenci utrzymują dynamikę powyżej 30%.

 

Perspektywy i wyzwania na najbliższe lata

Rosnące znaczenie optymalizacji kosztów AI w chmurze wymusza na dostawcach infrastruktury ciągłe doskonalenie efektywności rozwiązań i wprowadzanie nowych modeli rozliczeń. Gartner ostrzegał już wcześniej, że użytkownicy końcowi mogą być zaskoczeni, gdy rzeczywiste koszty wdrożeń AI przekroczą prognozy nawet o 500–1000%!

W najbliższych latach kluczowe będzie nie tylko wdrażanie nowych technologii AI, ale także skuteczne zarządzanie kosztami operacyjnymi. Firmy będą poszukiwać równowagi pomiędzy innowacyjnością a przewidywalnością finansową – a od tego, jak szybko chmurowi giganci i ich konkurenci odpowiedzą na te wyzwania, zależeć będzie tempo faktycznej transformacji cyfrowej opartej na AI.