Pekin HAIC Forum 2025: Lenovo prezentuje AI Factory oraz nowe serwery

Lenovo HAIC Forum 2025

Podczas Heterogeneous AI Computing High-Level Forum 2025, (HAIC Forum 2025), Lenovo zaprezentowało kompletny zestaw rozwiązań dla lokalnej infrastruktury sztucznej inteligencji. Firma ogłosiła AI Factory, nową wersję platformy heterogenicznej mocy obliczeniowej ThinkServer 4.0 oraz wysokowydajny serwer WA8080a G5 oparty na procesorach Intel Xeon 6. Wydarzenie przyniosło również prezentację wyników walidacji pierwszego branżowego standardu jakości usług treningu i inferencji dużych modeli.

 

AI Factory ma zmienić tradycyjne centra danych w inteligentne linie produkcyjne

Lenovo podczas HAIC Forum 2025 przedstawiło AI Factory, rozwiązanie zaprojektowane tak, aby przedsiębiorstwa mogły przejść od klasycznego modelu budowy centrów danych do zintegrowanej, zautomatyzowanej produkcji modeli, agentów i usług inferencyjnych.

Wiceprezes Lenovo Chen Zhenkuan podkreślił, że nowy system ma uporządkować i przyspieszyć cały przepływ pracy zespołów AI.

„Tak jak fabryki poprzednich epok zamieniały zasoby w produkty, w erze sztucznej inteligencji dane stają się surowcem, który trafia do platform treningowych i silników AI, dzięki czemu powstają kompletne modele i inteligentne systemy” – powiedział Zhenkuan.

Głównym atutem AI Factory jest możliwość standaryzacji procesów, ponownego użycia komponentów i automatyzacji działań, co w praktyce pozwala firmom osiągnąć krótszy czas wdrożeń oraz stabilną jakość wyników.

 

Lenovo HAIC Forum 2025

 

ThinkServer 4.0 i WA8080a G5, fundamenty infrastruktury AI

Lenovo zaprezentowało także najnowszą wersję platformy heterogenicznej mocy obliczeniowej ThinkServer 4.0. System został przeprojektowany pod kątem obsługi złożonych obciążeń AI i HPC, w tym rosnących wymagań dużych modeli językowych. Platforma wykorzystuje jednolite zarządzanie różnymi akceleratorami, dynamiczne harmonogramowanie zasobów oraz inteligentne mechanizmy równoważenia obciążeń między treningiem a inferencją.

W praktyce Lenovo pokazało scenariusze, w których czas treningu dużych modeli skrócono o nawet 50% względem poprzedniej generacji. Ważnym elementem jest również system automatycznego strojenia sieci RoCE, który od pierwszego uruchomienia zapewnia pełną przepustowość i eliminację strat pakietów.

W optymalizacji inferencji Lenovo zastosowało architekturę separacji procesów oraz mechanizm KV-Cache, co pozwala skrócić czas odpowiedzi przy zachowaniu wysokiej przepustowości, również w przypadku bardziej złożonych modeli.

Drugą dużą premierą był serwer WA8080a G5 oparty na procesorach Intel Xeon 6. Urządzenie wspiera najnowsze generacje GPU, pozwala na konfiguracje z chłodzeniem cieczą lub powietrzem i jest przeznaczone dla dużego wolumenu treningowego, w tym modeli generatywnych i multimodalnych.

„Wspólnie z Lenovo będziemy dalej zwiększać dostępność i efektywność technologii AI, wspierając rozwój lokalnych rozwiązań” – powiedział Hou Zhiqiang, główny inżynier Intela.

 

Lenovo HAIC Forum 2025

 

Nowy standard usług treningu i inferencji może uporządkować rynek

Jednym z kluczowych punktów HAIC Forum 2025 była prezentacja wyników walidacji pierwszego branżowego standardu dotyczącego jakości usług treningu i inferencji dużych modeli. Dokument precyzuje wymagania dotyczące wydajności, niezawodności oraz organizacji usług, pomagając firmom łatwiej oceniać dostawców infrastruktury AI.

„Standard wypełnia lukę w normach dotyczących wysokowydajnych usług AI i tworzy spójną podstawę do budowy skalowalnych, wiarygodnych rozwiązań dla przedsiębiorstw” – powiedział Chen Zhifeng z krajowego instytutu standaryzacji.

Według uczestników forum ogłoszony standard może przyspieszyć dojrzewanie rynku oraz transformację istniejących centrów danych w wydajne środowiska obsługujące duże modele.