Samsung tworzy „AI Megafactory”, by zautomatyzować produkcję chipów

Samsung zapowiedział budowę opartej na sztucznej inteligencji fabryki półprzewodników, wykorzystującej aż 50 000 procesorów graficznych Nvidii. Nowy projekt, określany mianem „AI Megafactory”, ma zrewolucjonizować sposób projektowania i wytwarzania układów scalonych dla urządzeń mobilnych i robotów, a zarazem wzmocnić strategiczne partnerstwo obu gigantów.

 

Samsung i Nvidia budują „fabrykę AI”

Koreański koncern ogłosił, że w ramach współpracy z Nvidią wdroży klaster 50 000 procesorów graficznych GPU. Celem jest automatyzacja i przyspieszenie procesów produkcyjnych w działach półprzewodników odpowiedzialnych za układy dla smartfonów, urządzeń IoT oraz robotów przemysłowych.

Nowe centrum obliczeniowe Samsunga ma stać się tzw. „AI Megafactory”, zakładem, w którym sztuczna inteligencja będzie analizować, projektować i optymalizować procesy litograficzne. Choć firma nie podała jeszcze harmonogramu inwestycji, deklaruje, że będzie to kluczowy krok w kierunku „pełnej automatyzacji” łańcucha produkcyjnego.

To kolejna spektakularna współpraca Nvidii, której układy pozostają niezbędne do rozwoju i wdrażania modeli AI. Po ogłoszeniu partnerstw z Palantirem, Eli Lilly, CrowdStrike i Uberem, Jensen Huang, prezes Nvidii, spotkał się w Korei Południowej z prezesem Samsunga, Lee Jae-yongiem. Według lokalnych mediów rozmowy dotyczyły wspólnej infrastruktury AI i produkcji komponentów dla nowej generacji układów Blackwell i Rubin.

 

Nawet 20-krotny wzrost wydajności i nowa generacja HBM

Według przedstawicieli Nvidii integracja procesorów graficznych z liniami litograficznymi Samsunga ma przynieść nawet 20-krotny wzrost wydajności w procesach projektowania i testowania chipów. W ramach projektu Samsung wykorzysta także oprogramowanie Nvidia Omniverse, które pozwala symulować środowiska produkcyjne i trenować modele predykcyjne AI.

Jednocześnie obie firmy zacieśniają współpracę w obszarze pamięci. Samsung zapowiedział, że wspólnie z Nvidią dostosuje czwartą generację pamięci HBM (High Bandwidth Memory) do potrzeb nowej architektury układów AI. Tego rodzaju pamięć, stosowana w największych klastrach GPU świata, stanowi kluczowy element w tzw. fabrykach AI, centrach danych przystosowanych do trenowania i inferencji dużych modeli.

 

Korea Południowa buduje potęgę AI

Raymond Teh, wiceprezes Nvidii ds. regionu Azji i Pacyfiku, podkreślił, że firma „ściśle współpracuje z rządem Korei Południowej, by wspierać jego ambitne plany w zakresie sztucznej inteligencji”. Oprócz Samsunga, podobne inwestycje w GPU zapowiedziały SK Group i Hyundai, które również tworzą własne klastry obliczeniowe.

Według danych rynkowych, Nvidia dysponuje obecnie portfelem zamówień na ponad 500 mld USD, obejmującym obecne i przyszłe generacje chipów Blackwell oraz Rubin. Szacuje się, że dzięki temu koncern przekroczył kapitalizację rynkową 5 bln USD, stając się najcenniejszą spółką świata technologicznego.