Z całą pewnością to będzie rok AI – Mariusz Ziółkowski, Vice President, Poland and South East Europe w TD SYNNEX

Mariusz Ziółkowski (Vice President, Poland and South East Europe w TD SYNNEX) wyjaśnia, dlaczego skuteczna transformacja cyfrowa wymaga modelu hybrydowego, jak uniknąć błędów we wdrożeniach i jak przygotować się na nadchodzące wyzwania sprzętowe.
Krzysztof Bogacki: Rozpocznijmy od tematu, który zdominował ostatnie dyskusje biznesowe, czyli o sztucznej inteligencji. Często jednak w tym zachwycie nad ułatwiającymi życie i pracę algorytmami, zapominamy o fundamencie, na którym stoją modele AI. Mam na myśli oczywiście chmurę. Jak z perspektywy TD SYNNEX wygląda obecnie symbioza między technologiami chmurowymi a rozwojem AI? Czy w ogóle możemy mówić o skutecznym wdrożeniu sztucznej inteligencji w przedsiębiorstwie bez wcześniejszej transformacji chmurowej?
To świetne pytanie, które dotyka sedna obecnych wyzwań cyfrowych i problemów, z jakimi mierzą się firmy, a w których my, jako globalny dystrybutor, staramy się wspierać naszych partnerów na polskim rynku. Warto przypomnieć, że TD SYNNEX wywodzi się z tradycji dystrybucji sprzętowej – pamiętamy czasy Avnetu, kiedy dystrybucja była stricte ukierunkowana na hardware, bo wówczas IT nie było właściwie niczym innym. Naturalnym etapem rozwoju było uzupełnienie tej oferty o software, a później oczywiście o rozwiązania chmurowe.
Jesteśmy największym dystrybutorem na świecie i – według naszej wiedzy – jako jedyni na polskim rynku posiadamy kontrakty ze wszystkimi trzema amerykańskimi hyperscalerami. Z naszej perspektywy transformacja chmurowa to proces ciągły, który postępuje i który aktywnie wspieramy. Dostarczamy naszym partnerom i ich klientom narzędzia oraz programy edukacyjne, takie jak Akademia TD SYNNEX, gdzie pokazujemy integrację hardware’u, software’u i chmury. Tworzymy środowiska hybrydowe, prowadząc jednocześnie projekty dedykowane stricte AI i chmurze. Odpowiadając wprost: skuteczne wdrożenie AI jest nierozerwalnie związane z dojrzałością chmurową i hybrydową.

Wspominasz o partnerach wywodzących się z rozwiązań sprzętowych. Tutaj chyba najbardziej jaskrawym przykładem transformacji jest Microsoft Copilot.
Zgadza się. Na przykład Microsoft Copilot w M365 zadebiutował w segmencie Enterprise, a dopiero później został udostępniony szerzej firmom i konsumentom. To wywołało duże zapotrzebowanie na wiedzę – o tym, jak działa, jak przetwarza dane i jakie realne korzyści może przynieść. My, jako globalny dystrybutor Microsoftu, od premiery nowej generacji urządzeń Copilot+ PC aktywnie edukujemy rynek na temat zalet lokalnego przetwarzania AI.
Nowe urządzenia wyposażone w dedykowane układy NPU (Neural Processing Unit) zapewniają wymierne korzyści: przejmują obliczenia AI z CPU i GPU, co wydłuża czas pracy na baterii i przyspiesza działanie aplikacji. Lokalne przetwarzanie sprawia, że wiele procesów – zwłaszcza tych związanych z multimediami i personalizacją – jest znacznie szybszych i bardziej responsywnych.
Windows 11 na Copilot+ PC integruje się z zaawansowanymi funkcjami, takimi jak dedykowany klawisz Copilot, tłumaczenia na żywo czy filtrowanie tła. Wiele z nich działa bezpośrednio na urządzeniu z wykorzystaniem mocy NPU, co poprawia wydajność, prywatność i stabilność pracy.
Osobiście jako właściciel niewielkiego, ale dość głośnego psa, najbardziej cenię sobie chyba jeden drobiazg – wycinanie dźwięków z tła podczas spotkań na Teams.
To dobry przykład AI działającego w tle, o którym nawet nie musimy myśleć. Z czasem zupełnie zapomnimy o tym, że kiedyś spotkania online mogły być “wzbogacone” o niechciane efekty dźwiękowe. Uważam, że to właśnie takie “niewidoczne AI”, działające dyskretnie, w tle, jest dziś prawdziwym, nieco pomijanym bohaterem rewolucji AI.

To prowadzi nas do kolejnego zagadnienia. Dlaczego obserwujemy ten wyraźny zwrot w stronę przetwarzania lokalnego?
Najbardziej istotną częścią tego trendu w biznesie jest konieczność wykorzystania modelu hybrydowego. Mówimy tu o sytuacji, gdzie każde opóźnienie generuje zbędny koszt lub wręcz uniemożliwia pracę. Wyobraźmy sobie autonomiczne roboty w magazynie. W przypadku przesyłania danych wyłącznie do chmury, opóźnienie rzędu 200, 300 czy 400 milisekund jest nie do przyjęcia. Dzięki rozwiązaniom hybrydowym i edge’owym, ten czas reakcji spada do poziomu 5–15 milisekund, co pozwala na efektywną pracę w czasie rzeczywistym.
Jednak jest jeszcze drugi, równie ważny aspekt – dane i regulacje prawne. Prawo Unii Europejskiej oraz wewnętrzne regulacje firm obligują organizacje do specyficznego traktowania danych wrażliwych.
Czyli chodzi o to, że dane muszą być przetwarzane “tu i teraz”, bez wychodzenia na zewnątrz?
Dokładnie tak. Dane związane z HR, finansami czy innymi wrażliwymi obszarami często nie mogą opuścić organizacji. Muszą być one odpowiednio oznaczone i zabezpieczone wewnątrz infrastruktury, tak aby osoba bez uprawnień nie miała do nich wglądu. Suwerenność danych jest tutaj kluczowa.
Dodatkowym atutem jest redukcja kosztów. Inwestując w urządzenia, które przetwarzają dane lokalnie, zmniejszamy opłaty za zużycie zasobów chmurowych, ponieważ część operacji wykonujemy “u siebie”. Przepustowość łącza przestaje być wąskim gardłem.

Na pewno firmowa sieć na tym zyskuje, bo pracownicy nie pobierają masowo wygenerowanych dokumentów czy materiałów wideo, tylko tworzą je na żywo na urządzeniu, nie zapychając prostymi zadaniami mocy obliczeniowych, za które płaci się wcale niemałe pieniądze.
Właśnie o to chodzi. To pewnego rodzaju optymalizacja, bo przecież nie musimy angażować dużego modelu AI, do zadań podstawowych, prostych. Byłoby to marnotrawieniem zasobów firmy z jednej strony, ale też wysoce nieekologicznym działaniem z drugiej. Do takich zadań zdecydowanie lepiej jest używać mniejszych modeli, takich, które z powodzeniem mogą działać na komputerach Copilot+ PC.Jednocześnie tam, gdzie potrzeba mocy obliczeniowej dla znacznie bardziej złożonych modeli AI, należy postawić czy to na chmurę, czy na rozwiązania hybrydowe, czy wreszcie na moc własnej, firmowej serwerowni.
Mówiąc wprost – AI w firmie może działać na wielu poziomach, a my jesteśmy w stanie pomóc we wdrożeniu na każdym z nich. Jako dystrybutor staramy się łączyć to, co dają najwięksi producenci hardware’u ze światem chmurowym, wyciągając z obu tych światów to, co najlepsze. Mamy znakomite kontakty i kompetencje w obu tych obszarach. Nasi partnerzy są więc doskonale wyposażeni do tego, aby podejmować się takich realizacji.
Wspomniałeś o ryzyku wycieku danych. To chyba jeden z głównych argumentów za rozwiązaniami lokalnymi?
Zdecydowanie. Dla przykładu, w dziale prawnym kluczowe jest, aby dane nie wyciekły i nie były wykorzystywane do trenowania modeli publicznych poza środowiskiem pracy. Microsoft w rozwiązaniach biznesowych, takich jak Microsoft 365 Copilot, gwarantuje tzw. Enterprise Data Protection. Oznacza to, że dane klienta nie są używane do uczenia modeli AI, a dostęp do nich jest ściśle kontrolowany. Tu wchodzi w grę kwestia Data Governance, czyli ustalenia hierarchii dostępu. Nie może być tak, że każdy ma dostęp do wszystkiego. Ja nie powinienem mieć wglądu w finanse, a Ty w HR. Musi istnieć jasna struktura uprawnień.
Właściwie jak przy okazji dowolnego narzędzia – trzeba wiedzieć jak je stosować. Z AI nie jest inaczej. Sztuczna inteligencja jest w stanie pomóc, usprawnić procesy w firmie, zdjąć z pracowników uciążliwe, powtarzalne obowiązki. Jednak źle wdrożona, lub używana bez wdrożenia w ogóle, w sposób nieautoryzowany, AI może wyrządzić szkody w organizacji.

Co, niestety, nie jest wcale jakimś fikcyjnym scenariuszem. Widać to w badaniach, w których, udział pracowników deklarujących korzystanie z AI, jest znacząco wyższy niż deklaracje ze strony firm. Oznacza to, że wykorzystywane są prawdopodobnie modele powszechnie dostępne, które z podanych danych korzystają, aby się szkolić.
To prawda. Takich przypadków było wiele, a o większości wywołanych w ten sposób wycieków danych pewnie nigdy się nie dowiemy. Podobna praktyka będzie miała miejsce zawsze, gdy firma realnie może na AI skorzystać, pracownicy mogą ułatwić sobie pracę, ale nie zapadła decyzja o wdrożeniu.
Dlatego tak ważne jest, aby mieć odpowiednie wsparcie w całym procesie projektowania wdrożenia AI w firmie. Nie każdy musi mieć w tym względzie kompetencje we własnym zespole, ale trzeba wiedzieć, gdzie tych kompetencji poszukiwać. Na polskim rynku działa wielu partnerów TD SYNNEX, którzy są już teraz wysoce wykwalifikowani do udzielania takiej pomocy. Z każdym nowym szkoleniem, które dla nich organizujemy, z każdym zrealizowanym wdrożeniem, stają się ekspertami. Co najważniejsze, oni też mają wsparcie: Nas.
Przejdźmy do weryfikacji rynkowej. Mimo entuzjazmu, badania PwC wskazują, że 56% inicjatyw związanych z AI globalnie nie przynosi oczekiwanych korzyści biznesowych. Z czego wynika tak wysoki odsetek niepowodzeń i czy widać to też w Polsce?
Obserwujemy bardzo podobne statystyki na rynku polskim. Najczęściej wynika to z braku przygotowania oraz luki kompetencyjnej po stronie klientów i partnerów. Największym błędem jest brak jasno zdefiniowanych celów projektu. AI spowodowało taką zmianę w podejściu biznesowym, że precyzyjne określenie, co chcemy osiągnąć, wcale nie jest łatwe. Cel musi być sprecyzowany – musimy wiedzieć, do czego narzędzie ma służyć. Kolejnym problemem jest jakość danych wejściowych. Jeśli “karmimy” AI danymi niskiej jakości, to – kolokwialnie mówiąc – otrzymamy “śmieciowe” wyniki.
Dlatego w TD SYNNEX prowadzimy program “Destination AI”. Wspólnie z vendorami, takimi jak Microsoft, oferujemy programy edukacyjne (np. AI Practice Builder), udostępniamy demo oraz wspieramy partnerów poprzez Center of Excellence, dzieląc się doświadczeniem z wdrożeń europejskich i światowych. Nasza główna rada? Nie rób wszystkiego naraz. Należy budować wdrożenia krok po kroku, systematycznie, dając pracownikom czas na adaptację i zdobycie niezbędnych umiejętności.

To pytanie może być nieco kontrowersyjne. Mówi się o boomie, ale pada też hasło “bańka”. Czy biznes nie przeinwestował w AI? Patrząc na wyceny niektórych spółek, można mieć skojarzenia z bańką tuż przed pęknięciem.
Rozdzieliłbym to na “bańkę startupową” i realne wdrożenia AI. Rzeczywiście, powstało wiele startupów, z których – jak to w statystyce bywa – przetrwa zdecydowanie mniej niż 100%. Wiele z nich zostało już wchłoniętych przez globalnych graczy. Jednak, jeśli chodzi o technologię, nie nazwałbym tego bańką.
Rozwój rynku AI jest niezwykle dynamiczny. To już nie jest etap prostych chatbotów sprzed lat. Dziś mówimy o Copilot Studio, o tworzeniu własnych, autonomicznych agentów dopasowanych do specyfiki firmy. Skończyło się też kupowanie chmury “na wyrost”. Klienci nie zamawiają mocy obliczeniowej z kilkumiesięcznym wyprzedzeniem jak hardware’u, lecz skalują ją dynamicznie, płacąc nawet za roboczo-sekundy wykorzystania modeli AI.
Czyli to sytuacja bez precedensu, być może porównywalna do upowszechnienia się elektryczności. Przykładowo, taki General Electric do dziś jest potęgą, bo stał za fundamentalną zmianą, a nie chwilową modą.
Dokładnie. To ogromna rewolucja. Giganci tacy jak Visa czy Mastercard inwestują ogromne środki, przejmując firmy z sektora AI i fintech. Nvidia czy Intel inwestują miliardy w infrastrukturę. Gdyby ci gracze nie “czuli pieniądza” i realnej wartości, nie angażowaliby tak potężnego kapitału.
Microsoft również wspaniale ewoluuje – zaczął od Copilota dla Enterprise, a teraz, widząc potrzeby rynku, wspiera producentów sprzętu, jak Dell, HP czy Lenovo w tworzeniu komputerów z wbudowanym AI. To synergia chmury, hardware’u i oprogramowania. Pieniądze w tym sektorze nie są przepalane, to są strategiczne inwestycje. Co więcej, to wszystko prowadzi do korzyści dla użytkowników. Trudno kwestionować przydatność AI w codziennej pracy. Wystarczy skorzystać np. z Copilota, by zauważyć potencjał do wzrostu produktywności.
Nie mam wątpliwości – to będzie rok AI. Nie jest to slogan, czy puste hasło. To prognoza, którą widzimy w wynikach, w badaniach rynku, w rozmowach z partnerami. Wiele firm i organizacji dojrzało do wdrożeń AI, to będzie się działo w 2026 roku.
Na koniec chciałbym poruszyć temat bardziej przyziemny, ale kluczowy dla dystrybucji. Jakie są prognozy odnośnie dostępności komponentów, zwłaszcza pamięci? Wiemy, że producenci tacy jak Samsung, Micron czy SK Hynix przestawili linie produkcyjne na pamięci HBM (High Bandwidth Memory) m.in. pod nowe układy Nvidii, co wpływa na rynek PC. Micron zamknął nawet swoją konsumencką, dobrze odbieraną markę, Crucial.
To jest strategiczna zmiana, która nastąpiła w ostatnich miesiącach. Analizy rynkowe przewidują, że trudności w dostępie do pamięci RAM i dysków SSD będą się zwiększać. To wymusza na partnerach zmianę podejścia. Należy planować zakupy z dużym wyprzedzeniem. Można to porównać do czasów pandemii – łańcuchy dostaw są napięte, a czas oczekiwania wydłużony. Jeśli coś kiedyś przyjeżdżało w miesiąc, teraz może to trwać cztery i być droższe.
Strategia “just-in-time” w tym momencie się nie sprawdzi. Jest to wyzwanie, ale traktujemy je jako okres przejściowy. Łańcuchy dostaw w końcu się ustrukturyzują. Obecnie doradzamy partnerom trzy rzeczy: po pierwsze, planowanie zamiast impulsywnych zakupów. Po drugie, rozbudowę i optymalizację tego, co już posiadają. A po trzecie – skorzystanie z siły strategicznego dystrybutora. Dzięki naszym globalnym kontraktom jesteśmy w stanie lepiej zabezpieczyć dostępność towaru, a w przypadku luk sprzętowych – oferujemy alternatywy w postaci rozwiązań chmurowych, które pozwalają zachować ciągłość biznesową klientów.
Zapraszamy do lektury całego wydania (klikając w poniższą okładkę).



















