GTC 2020 – Konferencja online NVIDII w niecodziennej formie. CEO firmy, Jensen Huang, zaprezentował „największy GPU świata” w… kuchni.

Jakie czasy, takie prezentacje. Skoro pracujemy z domów, to prezentacje nowych produktów również mogą odbywać się w domowej stylizacji. Jensen Huang, CEO NVIDII, zaprezentował nową stację DGX A100, dla efektu wyjmując ją z piekarnika i nazywając największą kartą graficzną świata. Ale NVIDIA DGX A100 to znacznie więcej – to kompletna stacja na potrzeby uczenia maszynowego, ciężkich obliczeń oraz złożonej analityki. 

NVIDIA oficjalnie pokazała swój największy i najwydajniejszy procesor graficzny. I nie chodzi oczywiście o żadnego GeForce’a, a nowy układ z linii służącej do obliczeń na potrzeby AI. Wykonany przez TSMC w procesie technologicznym 7 nm układ, pierwszy w architekturze Ampere, nosi nazwę GA100. Zaprezentowano także nową stację AI NVIDII: DGX A100, w której znajdziemy łącznie 8 GPU NVIDIA Tesla A100.

Zanim Jensen Huang (jak zawsze w ikonicznej już skórzanej kurtce) wyjął potężny DGX A100 z piekarnika, zachwalał zalety ray tracingu oraz DLSS 2.0.

 

GPU Ampere GA100  – karta Tesla A100

Procesor graficzny Ampere GA100 to zdecydowanie największy procesor graficzny 7 nm, jaki kiedykolwiek powstał. Ten GPU został zaprojektowany w całości dla rynku HPC, a więc zmierzy się z zastosowaniami takimi jak badania naukowe, sztuczna inteligencja, sieci neuronowe i uczenie maszynowe.

Kiedy NVIDIA mówi, że to jest największy GPU, to bez wątpienia ma rację. Mierzy sobie aż 826 mm2, (zatem więcej niż Volta GV100 – 815 mm2). Ponieważ od czasu Volty udało się opanować nowszą, bardziej gęstą litografię, nowy GPU ma także ponad dwukrotnie więcej tranzystorów niż poprzednik – 54 miliardy w porównaniu z 21,1 miliardami.

Wyposażony w 108 bloków SM z łącznie 6912 rdzeniami CUDA, GA100 mieści w praktyce największą liczbę rdzeni GPU, jaką kiedykolwiek widzieliśmy w pojedynczym GPU. Układ zawiera 432 rdzenie tensor i taką samą liczbę jednostek mapujących. Reszta specyfikacji obejmuje niezwykle szeroki 5120-bitowy interfejs magistrali, który służy do komunikacji z aż 40 GB pamięci HBM2e. Ułożona w stosu pamięć znajduje się bardzo blisko GPU, współdzieląc tę samą płytkę.

Wzrost wydajności względem potęznego przecież GPU Tesla V100 (Volta) jest olbrzymi

Prawdopodobnie, pomimo całego ogromu tego GPU, nie jest to wciąż najbardziej pełna i rozbudowana wersja GA100. Układ posiada mniej rdzeni tensor niż Tesla V100 bazująca na architekturze Volta, a pogłoski mówiące o Ampere z aż 8192 rdzeniami CUDA zapewne nie wzięły się znikąd.

NVIDIA DGX A100

Nowa stacja na potrzeby obliczeń AI, NVIDIA DGX A100, może być prawdziwym przełomem wydajnościowym dla centrów danych – NVIDIA zdołała stworzyć urządzenie, które, chociaż tanie nie jest, pozwala uzyskać olbrzymią moc obliczeniową relatywnie do klasycznych metod, znacznie niższym kosztem.

DGX A100 na wizualizacji

DGX A100 jest właściwie kompletnym komputerem, z dwoma procesorami AMD EPYC „Rome” (64-rdzenie każdy) i 8 kartami graficznymi Tesla A100. Wybór platformy AMD był dość oczywisty, nie tylko ze względów wydajnościowych czy efektywności energetycznej, ale przede wszystkim ze względu na interfejs PCIe 4.0 – niedostępny póki co, w platformie Intela.  Szybszy dwukrotnie niż PCIe 3.0 nowy interfejs pozwala na uzyskanie olbrzymich przepustowości osiąganych przez maszyną NVIDII.

DGX A100 posiada 1 TB pamięci RAM ECC, a jako nośnika danych używa mającej łączną pojemność 15 TB macierzy zbudowanej na dyskach SSD NVMe PCIe 4.0. Za komunikację z siecią odpowiada 9 układów Mellanox ConnectX-6 VPI HDR InfiniBand/200 GigE

Do czego ma służyć NVIDIA DGX A100? Przede wszystkim będzie wsparciem dla centrów danych, by przyspieszyć zdolności nie tylko uczenia maszynowego, ale też głębokiej analityki. Przede wszystkim, i to pomimo ceny wynoszącej 199 tys. dolarów (ponad 840 tysięcy zł, przy czym pamiętajmy, że Amerykanie zawsze podają ceny netto), DGX A100 może pomóc oszczędzić pieniądze. Jak? NVIDIA przedstawiła kilka scenariuszy zastępczego użycia DGX A100 zamiast konwencjonalnych rozwiązań w centrach danych. Jednym z ciekawych jest zastosowanie do rankingu stron internetowych (pagerank) za pomocą Common Crawl Data Set. To złożone zadanie, wymagające „czytania” miliardów rekordów i linków, w możliwie krótkim czasie.

NVIDIA zapowiedziała też własne wdrożenia DGX A100. Pierwszym z nich jest rozbudowa własnego superkomputera Saturn V. Dodając do niego cztery klastry NVIDIA DGX A100 Superpod (w każdym z nich znajduje się 140 komputerów DGX A100, co oznacza łączny dodatek 560 jednostek DGX A100), udało się zwiększyć moc obliczeniową superkomputera NVIDII z 1,8 ExaFLOPS do aż 4,6 ExaFLOPS. Oczywistym jest, że z nowego rozwiązania NVIDII skorzystają głównie naprawdę potężne firmy i instytucje, ale lista chętnych na DGX A100 może wcale nie być krótka – urządzenie może wydatnie podnieść wydajność centrów danych, m.in. tych pracujących na rzecz kluczowych w tej chwili gałęzi takich jak medycyna.

https://itreseller.pl/itrnewmicrosoft-inwestuje-w-chmure-nie-tylko-w-polsce-o-polowe-wieksza-bo-wynoszaca-az-15-mld-usd-inwestycja-bedzie-miala-miejsce-we-wloszech/