Rok 2022 zdaniem Red Hat przyniesie rosnącą rolę kontenerów i Kubernetes. Sprawdź co jeszcze czeka nas w nadchodzacym roku?

Nie zawsze łatwo jest tworzyć prognozy na cały przyszły rok. Po pierwsze cała branża IT bardzo szybko się rozwija i rozwiązania, które dziś uznawane są za niszowe, jutro mogą stać się dominujące. Także pandemia nauczyła nas, że pomimo ustalonych planów, rzeczywistość wymaga od nas zupełnie innych działań, ale i często zmusza do przyśpieszenia cyfrowej transformacji. Jaki zatem będzie kolejny rok w technologii IT?

 

Rosnąca rola kontenerów i Kubernetes

Firma Gartner przewiduje, że do 2022 roku ponad 75% organizacji na świecie będzie uruchamiać aplikacje kontenerowe w środowisku produkcyjnym, co oznacza duży wzrost z poziomu niecałych 30% w roku 2020. Co jednak będzie motorem tak gwałtownego wzrostu?

W ciągu ostatnich 7 lat Kubernetes ewoluował i stał się de facto standardem zarządzania aplikacjami kontenerowymi. I, podobnie jak w przypadku każdej nowej technologii, mamy do czynienia zarówno z dojrzewaniem jej samej, jak i z krzywą uczenia się użytkowników. W początkowym okresie użytkownicy często budowali własne lokalne platformy Kubernetes i wdrażali bardziej uproszczony zestaw aplikacji. Jednak wraz z ustabilizowaniem się platformy Kubernetes wzorce użytkowania znacznie dojrzały.

 

Organizacje dostrzegły sukces połączenia technologii Kubernetes z Red Hat (dzięki OpenShift), dlatego oczekują podobnych rezultatów biznesowych. Często jednak nie chcą inwestować w kwalifikacje niezbędne do zarządzania platformą Kubernetes i jej utrzymywania. To właśnie tutaj spodziewamy się szybkiej ekspansji wykorzystania zarządzanych usług chmurowych Kubernetes, takich jak OpenShift Dedicated, Red Hat OpenShift on AWS (ROSA) oraz Microsoft Azure Red Hat OpenShift (ARO) – komentuje Adam Wojtkowski, General Manager na region CEE w Red Hat.

 

Widzieliśmy już szeroką gamę aplikacji działających w kontenerach, a teraz zaczynamy dostrzegać, że coraz więcej organizacji przenosi na platformę Kubernetes swoje newralgiczne aplikacje. Oczekuje się, że bazy danych, komunikaty sterowane zdarzeniami oraz newralgiczne aplikacje będą przenoszone na platformę Kubernetes, aby wykorzystać skalowalność, bezpieczeństwo i przenośność, które Kubernetes zapewnia wszystkim aplikacjom.

Jednak spośród wszystkich aplikacji działających na platformie Kubernetes wyróżnia się jeden obszar — to AI/ML. Wraz ze wzrostem znaczenia analizy danych w niemal każdej firmie rośnie także zdolność do ulepszania i usprawniania wielu rodzajów aplikacji. Kubernetes dodaje do AI/ML doskonałe możliwości platformowe: skalowalność, dostęp do procesorów graficznych, przenośność obciążeń i wiele więcej. Byliśmy już świadkami wspaniałych osiągnięć, do jakich zdolne są organizacje dzięki technologiom AI/ML opartym na platformie Kubernetes. Oczekujemy, że następna generacja aplikacji całkowicie odmieni branże.

 

Zmierzch ery wirtualizacji

Kontenery będą wypierać maszyny wirtualne, a to głównie przez to, że pozwalają znacznie uprościć cały stos infrastruktury aplikacyjnej. Jeśli posiadamy aplikacje, które wymagają dedykowanych maszyn wirtualnych to jest na to świetna metoda. Maszyna wirtualna nie jest niczym innym jak procesem, który z łatwością można uruchomić w kontenerze. Zabieg taki pozwala całkowicie wyeliminować warstwę wirtualizacji. Platformy wirtualne w dotychczasowej postaci powoli przechodzą już do lamusa. Obecnie obciążenia kontenerowe coraz częściej uruchamiane są bezpośrednio na warstwie sprzętowej (bare metal), dotyczy to również maszyn wirtualnych, które do tej pory wymagały osobnej platformy. Dzięki temu stos technologiczny można spłaszczyć, rezygnując zupełnie z warstwy wirtualizacji. Korzyści, jakie niesie taki zabieg, nie ograniczają się jedynie do oszczędności kosztów platformy wirtualnej ale przede wszystkim upraszczają operacje, dzięki wykorzystaniu tych samych narzędzi do zarządzania zarówno kontenerami jak i maszynami wirtualnymi. Łatwiejszy staje się proces powołania całego projektu, gdyż maszyny wirtualne tworzone są w sposób równie zwinny jak kontenery. Wspólne narzędzia CI/CD, cykl życia środowisk od rozwoju po produkcję wygląda teraz znacznie prościej. Eliminujemy również narzut wydajnościowy, jaki do tej pory konsumował wirtualizator.

 

Rosnąca rola przetwarzania brzegowego

Organizacje będą wykorzystywać przetwarzanie brzegowe do rozwiązywania najważniejszych problemów globalnych — w tym związanych ze zrównoważonym rozwojem, zmianą klimatu i niestabilnością łańcuchów dostaw. Będzie to naturalne rozszerzenie transformacji działalności, która na miejsce już dziś. Te wysiłki będą mieć charakter ekosystemowy, ponieważ zmuszą do współpracy wszystkie branże.

 

Wydaje się, że na tym polu jednym z głównych graczy będzie sektor telekomunikacyjny, który wykorzysta sieci 5G i przetwarzanie brzegowe, aby pomóc w rozwiązaniu problemu braku dostępności do najnowszych technologii IT w wielu branżach. Technologie te są już odpowiednio dojrzałe — stają się tańsze, bezpieczniejsze i mają bardziej globalny zasięg — dzięki czemu stworzą prawdziwe okno możliwości, które pozwoli rozwiązać problemy uważane dotychczas za niemożliwe do pokonania. Przykłady zastosowań są niemal nieograniczone. – dodaje Adam Wojtkowski, General Manager na region CEE w Red Hat.

 

Obliczenia na brzegu sieci będą oznaczać powrót przetwarzania heterogenicznego, które zapewni ogromny ekosystem z mocą specjalistycznego sprzętu — bez kompromisów, co zapewnia jedynie technologia open source, nieograniczana przez sztywne ramy, jak ma to miejsce w przypadku oprogramowania zastrzeżonego. Obliczenia będzie można przeprowadzać w dowolnym miejscu, mając do dyspozycji kompletny stos zbudowany zgodnie z konkretnym przeznaczeniem oraz optymalizujący aplikacje i infrastrukturę.

Wraz z powstawaniem nowych projektów przetwarzania brzegowego organizacje zaczną zdawać sobie sprawę, że będą też musiały prowadzić więcej niż jeden projekt brzegowy w tym samym czasie. Podobnie jak to miało miejsce w przypadku przetwarzania w chmurze, klienci zaczną opracowywać zasady zarządzania, które określą to, z czego należy korzystać i w jaki sposób faktoryzować projekty.

 

Mobilność, sztuczna inteligencja oraz uczenie maszynowe

W ciągu najbliższych kilku lat zobaczymy, że przetwarzanie brzegowe oraz sztuczna inteligencja / uczenie maszynowe (AI/ML) będą wspólnie napędzać kolejną falę innowacji technologicznych. W większości rzeczywistych zastosowań zarówno technologie brzegowe, jak i AI/ML będą pracować ramię w ramię, aby dostarczać rozwiązania, które pomogą zwalczać największe problemy świata — związane m.in. ze zrównoważonym rozwojem, zmianą klimatu, obłożeniem szpitali i nie tylko.

Nową klasą urządzeń brzegowych o dużej mobilności i mocy obliczeniowej staną się pojazdy. Technologie open source pomogą przyspieszyć transformację przemysłu motoryzacyjnego dzięki wspólnemu celowi, jakim jest poprawa bezpieczeństwa na drogach. Ostatecznie doprowadzi to do zbudowania bardziej solidnego ekosystemu mobilności, zwiększenia możliwości ponownego wykorzystania oprogramowania oraz bardziej wydajnego i zrównoważonego łańcucha wartości dla producentów samochodów.

 

Bezpieczeństwo łańcuchów dostaw oprogramowania

Jednym z głównych obszarów zainteresowania w nadchodzącym roku będzie bezpieczeństwo łańcuchów dostaw oprogramowania. Organizacje muszą chronić swój łańcuch dostaw przed włamaniami. Osiągnięcie tego celu będzie wymagało inwestycji w zastosowanie nowych technologii w potokach, np. łańcuchów Tekton CD, a także Sigstore, aby ułatwić dodawanie podpisów w potokach.

 

Zaczniemy dostrzegać zmiany w sposobie, w jaki firmy zabezpieczają aplikacje na etapie ich wdrażania. Ten proces już się rozpoczął wraz z przesunięciem w kierunku prostszego podejścia w samej platformie Kubernetes, zwanego kontrolą poza drzewem. Nadal będziemy obserwować wzrost w obszarze zarządzania wdrożeniami opartego na regułach — z wykorzystaniem narzędzi takich jak OPA Gatekeeper, Kyverno i Argo CD. Warto też zwrócić uwagę na nowe mechanizmy reguł, które dopiero się pojawią – podsumowuje Adam Wojtkowski.

 

Nastąpi wzrost zainteresowania zestawieniami komponentów oprogramowania (SBOM). Proponowane standardy dotyczące dostarczania SBOM istnieją już od dłuższego czasu, ale — ze względu na obawy związane z bezpieczeństwem łańcucha dostaw — doszliśmy do punktu, w którym wszystkie organizacje będą musiały wymyślić, jak dostarczać zestawienia komponentów oprogramowania. W branży będzie się toczyć dyskusja na temat statycznych informacji w zestawieniach komponentów w porównaniu z informacjami dynamicznymi, takimi jak dane dotyczące podatności wraz z informacją o tym, w którym przypadku pakiet nie uległ zmianie, ale podatności związane z takim pakietem — już tak. W związku z tym nastąpi gwałtowny rozwój automatyzacji wokół SBOM i powiązanych metadanych pakietów.

Kubernetes będzie zawierać większą liczbę funkcji bezpieczeństwa dodanych bezpośrednio do poszczególnych dystrybucji tej platformy. Pomoże to zwiększyć ogólne bezpieczeństwo dystrybucji, a także obniżyć koszty zabezpieczania wdrożeń platformy Kubernetes.

 

Hewlett Packard Enterprise podczas Kongresu Partnerów HPE 2022 pod hasłem „Przyszłość już tu jest” nagrodziło swoich najlepszych partnerów biznesowych.