Przedsiębiorstwa planujące rozwój na bazie sztucznej inteligencji mogą już korzystać z Red Hat Enterprise Linux AI

Red Hat, Inc., wiodący na świecie dostawca rozwiązań bazujących na otwartym kodzie źródłowym, udostępnił publicznie system Red Hat Enterprise Linux (RHEL) AI do wykorzystania w środowisku chmury hybrydowej. RHEL AI to platforma Red Hat dla podstawowych modeli sztucznej inteligencji, która umożliwia użytkownikom płynniejsze opracowywanie, testowanie i uruchamianie generatywnych modeli AI (gen AI) na potrzeby korporacyjnych aplikacji.

Platforma łączy licencjonowaną na zasadach open source rodzinę dużych modeli językowych Granite (LLM) oraz narzędzia do dostrajania modeli InstructLab, bazujące na metodologii Large-scale Alignment for chatBots (LAB). Zostały one zebrane w pakiet jako zoptymalizowany, bootowalny obraz RHEL do indywidualnych wdrożeń na serwerach w chmurze hybrydowej.

 

„Aby aplikacje GenAI odniosły prawdziwy sukces w przedsiębiorstwie, muszą być bardziej dostępne dla szerszego grona firm i użytkowników oraz mieć większe zastosowanie w konkretnych przypadkach biznesowych. RHEL AI zapewnia ekspertom specjalizującym się w różnych dziedzinach, a nie tylko analitykom danych, możliwość współtworzenia modelu GenAI w chmurze hybrydowej, a jednocześnie ułatwia działom IT skalowanie tych modeli do wykorzystania produkcyjnego za pośrednictwem Red Hat OpenShift AI.” – powiedział Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat.

 

Możliwości zapewniane przez generatywną sztuczną inteligencję są ogromne, jednak powiązane z jej wdrożeniem koszty zakupu, szkolenia modelu LLM i dostrajania go mogą być astronomiczne. Kupno niektórych wiodących modeli wiąże się z kosztem blisko 200 milionów dolarów. Kwota ta nie obejmuje kosztów dostosowania do konkretnych wymagań lub zasobów przedsiębiorstwa, co zazwyczaj wymaga zaangażowania naukowców zajmujących się danymi lub wysoko wyspecjalizowanych programistów. Niezależnie od modelu wybranego dla danej aplikacji, nadal wymagane jest dostosowanie go do specyficznych dla firmy danych i procesów. Wydajność oraz elastyczność są więc kluczowe dla obsługi sztucznej inteligencji w rzeczywistym środowisku produkcyjnym.

 

„IBM jest zaangażowany w pomaganie przedsiębiorstwom w budowaniu i wdrażaniu skutecznych modeli AI oraz w ich szybkim skalowaniu. RHEL AI w chmurze IBM Cloud przenosi innowacyjność bazującą na open source na wykorzystanie modeli GenAI, co umożliwia większej liczbie firm i osób dostęp, skalowanie oraz wykorzystywanie mocy sztucznej inteligencji. RHEL AI, poprzez połączenie mocy InstructLab oraz rodziny modeli IBM Granite, pozwala na stworzenie modeli GenAI, które pomogą klientom wywierać realny wpływ na działalność biznesową w całym przedsiębiorstwie.” – powiedział Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure.

 

Zdaniem przedstawicieli firmy Red Hat w ciągu następnej dekady mniejsze, bardziej wydajne modele AI budowane z myślą o konkretnym przeznaczeniu będą stanowić znaczącą część rozwiązań IT w przedsiębiorstwach, obok natywnych aplikacji chmurowych. Jednak aby to osiągnąć generatywna sztuczna inteligencja musi być bardziej dostępna i osiągalna, począwszy od kwestii związanych z kosztami jej zakupu i wdrożenia, poprzez zaangażowanie jej współtwórców, aż po miejsce, w którym może działać w chmurze hybrydowej. Przez dziesięciolecia społeczności open source pomagały w rozwiązywaniu podobnych wyzwań związanych ze złożonymi problemami z oprogramowaniem. Zastosowanie podobnego podejścia może przyczynić się do obniżenia barier w skutecznym wdrażaniu gen AI.

 

Podejście open source do gen AI

RHEL AI chce uczynić generatywną sztuczną inteligencję bardziej dostępną, wydajniejszą i elastyczną dla osób na stanowisku CIO oraz korporacyjnych działów IT korzystających z chmury hybrydowej. Rozwiązanie to jest pomocne w różnych obszarach:

  • Wzmocnienie innowacyjności bazującej na gen AI dzięki modelom Granite klasy korporacyjnej, licencjonowanym na zasadach open source i dostosowanym do szerokiej gamy przypadków użycia gen AI;
  • Usprawnienie dostosowywania modeli gen AI do wymagań biznesowych za pomocą narzędzi InstructLab. Dzięki temu eksperci z różnych dziedzin, a także programiści mogą w przygotowywanych modelach wykorzystać swoje unikalne umiejętności i wiedzę, nawet bez rozległych umiejętności w zakresie nauki o danych;
  • Trenowanie i wdrażanie gen AI w dowolnym miejscu w chmurze hybrydowej z wykorzystaniem wszystkich narzędzi potrzebnych do dostrajania i wdrażania modeli na serwerach produkcyjnych, niezależnie od tego, gdzie znajdują się powiązane dane. RHEL AI zapewnia również gotowy dostęp do Red Hat OpenShift AI w celu trenowania, dostrajania i obsługi tych modeli na dużą skalę, przy użyciu tych samych narzędzi i koncepcji.

System RHEL AI dostępny jest również w modelu subskrypcyjnym Red Hat, który zapewnia zaufane mechanizmy dystrybucji korporacyjnych produktów, całodobowe wsparcie produkcyjne, rozszerzone wsparcie w ramach cyklu życia modelu AI, a także ochronę prawną.

 

„Wdrożenie sztucznej inteligencji w przedsiębiorstwie wiąże się z wieloma korzyściami, ale duży wybór modeli AI oraz konieczność ich dostrajania i utrzymywania w wewnętrznym środowisku stanowi duże wyzwanie. Mniejsze, łatwiej dostępne modele zbudowane do wykorzystania w konkretnym celu mogą sprawić, że realizacja strategii AI będzie bardziej osiągalna dla znacznie szerszego grona użytkowników i firm, co jest obszarem, w który Red Hat celuje dzięki RHEL AI jako platformie modelu podstawowego.” – zaznaczył Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC.

 

Rozszerzona współpraca RHEL AI z chmurą hybrydową

Zapewnienie możliwości korzystania ze spójnej platformy modelu podstawowego sztucznej inteligencji bliżej miejsca, w którym znajdują się firmowe dane, ma kluczowe znaczenie dla wspierania produkcyjnych strategii związanych z AI. Jako rozszerzenie oferty chmury hybrydowej Red Hat, RHEL AI obejmie niemal każde możliwe środowisko korporacyjne – od lokalnych centrów danych, przez infrastrukturę brzegową, po chmurę publiczną. Oznacza to, że RHEL AI będzie dostępny bezpośrednio w ofercie Red Hat, u partnerów OEM, a także będzie można uruchomić ten system u największych dostawców chmury na świecie, w tym Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud i Microsoft Azure. Umożliwi to programistom i działom IT wykorzystanie zasobów mocy obliczeniowej hiperskalerów do tworzenia innowacyjnych projektów sztucznej inteligencji z wykorzystaniem RHEL AI.

 

Dostępność

RHEL AI jest już publicznie dostępny w portalu dla klientów Red Hat w wersji do uruchamiania w lokalnym środowisku lub do wdrażania w chmurze AWS i IBM Cloud w modelu Bring Your Own Subscription (BYOS). Dostępność oferty BYOS na Azure i GCP planowana jest na 4. kwartał 2024 r. RHEL AI ma być udostępniony również jako usługa w chmurze IBM Cloud jeszcze w tym roku.

Red Hat planuje w nadchodzących miesiącach jeszcze bardziej rozszerzyć zasięg chmury RHEL AI i partnerów OEM, zapewniając jeszcze większy wybór w środowiskach chmury hybrydowej.