Google ulepsza zestaw narzędzi AI dzięki nowym procesorom i układom GPU
W trakcie tegorocznej konferencji Cloud Next, firma Google skupiło się wyjątkowo na rozwijaniu sztucznej inteligencji (AI). Wysuwając na pierwszy plan innowacje sprzętowe, Google przedstawia szeroki zakres projektów, obejmujących zarówno aktualizacje jednostek TPU, GPU, jak i zestaw nowych narzędzi oprogramowania, które mają za zadanie w pełni wykorzystać potencjał tych technologii.
Podczas wydarzenia, które odbywa się w San Francisco, Google zaprezentowało nową jednostkę przetwarzania tensorów AI – Cloud TPU v5e. Ta najnowsza wersja jednostki TPU, będącej dedykowanym rozwiązaniem do przyspieszania procesów uczenia maszynowego, jest jednocześnie wyposażona w maszyny wirtualne, które są emulowane procesorami Nvidia H100 GPU, co podkreśla wyjątkowe zaangażowanie Google w rozwijanie zaawansowanych narzędzi do pracy nad sztuczną inteligencją.
Jednostki TPU (Tensor Processing Unit) to własne, specjalnie zaprojektowane przez Google układy scalone, które znacznie przyspieszają procesy związane z uczeniem maszynowym. Usługa Cloud TPU opiera się na własnym frameworku do uczenia maszynowego – TensorFlow, stworzonym przez Google, oraz na innych popularnych frameworkach, takich jak Jax czy PyTorch.
Warto podkreślić, że poprzednia wersja jednostki AI firmy Google, TPU v4, została oficjalnie wprowadzona na rynek w 2021 roku, choć już przez kilka lat była testowana i rozwijana przez giganta technologicznego. Teraz, z Cloud TPU v5e, Google deklaruje podwojenie wydajności szkolenia modeli AI w przeliczeniu na dolar oraz uzyskanie 2,5-krotnie wyższej wydajności wnioskowania dla dużych modeli językowych i sztucznej inteligencji generatywnej, w porównaniu do poprzedniej wersji – Cloud TPU v4.
Warto również wspomnieć, że Google skupia się nie tylko na aspektach sprzętowych. Wprowadzane usprawnienia dotyczą także skalowalności obsługi dużych obciążeń AI w Cloud TPU v5e za pomocą funkcji Multislice. Ta nowa funkcja pozwala na skalowanie modeli poza dotychczasowe ograniczenia pojedynczego bloku TPU, otwierając możliwość korzystania z dziesiątek tysięcy układów TPU w jednym projekcie, jeśli zajdzie taka potrzeba. Wcześniej zadania szkoleniowe były ograniczone do jednego bloku układów TPU.
W dalszej perspektywie, firma Google zapowiada także wprowadzenie nowych wirtualnych maszyn A3, które skupiają się na obsłudze zaawansowanych obciążeń AI, takich jak duże modele językowe. Instancje te będą wyposażone w układy obliczeniowe Nvidia H100 GPU, a także w procesory Intel Xeon Scalable oraz pamięć o pojemności 2 TB. Te zaawansowane jednostki zapewniają nie tylko znakomitą wydajność, ale także umożliwiają budowę coraz bardziej złożonych modeli sztucznej inteligencji.
Google podkreśliło również, że konferencja Cloud Next to nie tylko prezentacja innowacji sprzętowych. Skupiając się na ekosystemie sztucznej inteligencji, Google wprowadza nowości także w dziedzinie oprogramowania. Integracje z Vertex AI, AlloyDB Omni oraz Dataproc Spark w Google Distributed Cloud prezentują firmę jako aktywnego uczestnika w rozwijaniu zaawansowanych narzędzi do pracy z danymi i analizy danych w kontekście sztucznej inteligencji. Przedstawiane narzędzia to m.in. systemy do prognozowania (Vertex Prediction), zarządzania danymi (Vertex Pipelines), nowy silnik bazodanowy (AlloyDB Omni) oraz zarządzana usługa dla analizy danych z wykorzystaniem Apache Spark (Dataproc Spark).