Prognozy firmy NetApp na rok 2019, kluczowe kwestie w trendach biznesowych i technologicznych według Atisha Gude’a, starszego wiceprezesa i dyrektora ds. strategii w NetApp.

Wkroczyliśmy już w rok 2019. Warto zwrócić uwagę na kwestie, które można zauważyć w trendach biznesowych i technologicznych występujących na rynku. Na przykład sztuczna inteligencja pojawia się jako element trendów związanych z projektowaniem, zarządzaniem danymi i udostępnianiem aplikacji oraz usług na granicy sieci, w jej rdzeniu i w chmurze. Newralgiczną technologią staje się również konteneryzacja, a urządzenia Internetu rzeczy (IoT) znajdujące się na granicy sieci są coraz bardziej zaawansowane. To projektanci i programiści wyznaczają kierunki transformacji. Dzięki ich wymaganiom pojawiają się nowe paradygmaty i nowe technologie, w których muszą potem osiągnąć biegłość, aby zachować w dłuższej perspektywie dobrą pozycję na rynku. 

 

1. Pierwszym obszarem działania rozwiązań sztucznej inteligencji będą chmury

– Technologie sztucznej inteligencji są nadal na wczesnych etapach rozwoju. Będą wykorzystywane do przetwarzania ogromnych ilości danych, w większości przypadków w chmurach publicznych.

 

Dzięki szybko poszerzającej się ofercie oprogramowania i usług opartych na sztucznej inteligencji, dostępnych głównie w chmurze, tworzenie rozwiązań tego rodzaju będzie procesem coraz mniej złożonym. Aplikacje takie będą mogły uzyskać dużą wydajność i skalowalność, zarówno w środowiskach lokalnych, jak i zdalnych; będą też obsługiwać różne protokoły dostępu do danych i wiele nowych formatów danych. Zmiany czekają również infrastrukturę umożliwiającą obsługę obciążeń obliczeniowych korzystających ze sztucznej inteligencji – niezbędna tu jest odpowiednia szybkość, odporność i automatyzacja. Systemy sztucznej inteligencji staną się bez wątpienia kolejnym obszarem rywalizacji dla dostawców infrastruktury, jednak większość nowych projektów będzie realizowana z myślą o chmurach.

 

2. Internet rzeczy: nie kontaktuj się z centralą. Rozwiąż problem samodzielnie. 

Urządzenia graniczne będą bardziej inteligentne i w większym stopniu zdolne do podejmowania w czasie rzeczywistym decyzji dotyczących przetwarzania danych i działania aplikacji.

 

Tradycyjne urządzenia Internetu rzeczy (IoT) konstruuje się z uwzględnieniem paradygmatu „połączenia z centralą”: ich praca polega na gromadzeniu danych, przesyłaniu ich do przetworzenia i oczekiwaniu na instrukcje. Jednak nawet po pojawieniu się sieci 5G w przypadku podejmowania decyzji w czasie rzeczywistym nie zawsze można czekać na zakończenie obiegu danych do centrum przetwarzania w chmurze i z powrotem, a do tego ilość przesyłanych danych wciąż rośnie. Dlatego przetwarzanie powinno odbywać się jak najbliżej odbiorcy, a to oznacza, że wzrośnie zapotrzebowanie na funkcje przetwarzania danych na granicy sieci. Urządzenia i aplikacje IoT – wykorzystujące wbudowane usługi, na przykład analizy i redukcji danych – będą coraz szybciej, skuteczniej i inteligentniej podejmować decyzje o tym, które dane wymagają natychmiastowego działania, które należy przesłać do rdzenia sieci lub do chmury, a których należy się po prostu pozbyć.

 

3. Wszystko ma działać „automagicznie

Dzięki zapotrzebowaniu na bardzo uproszczone usługi wzrośnie poziom abstrakcji zasobów informatycznych, a usługi przetwarzania danych staną się standardowymi produktami.

 

Jakiś czas temu producenci samochodów zaczęli przechwalać się w reklamach, że pierwszy przegląd auta nastąpi dopiero po 100 tysiącach mil. W pewnym zakresie te zapowiedzi okazały się zresztą prawdziwe. Rzecz w tym, że w zasadzie nikt już nie poświęca weekendów na samodzielną wymianę oleju albo świec zapłonowych czy napinanie paska rozrządu. Wsiadamy do samochodu, przekręcamy kluczyk, jedziemy. Nie musimy nad niczym się zastanawiać, dopóki nie pojawi się informacja, że jakiś element wymaga sprawdzenia. Nic prostszego. Użytkownicy mają podobne oczekiwania wobec infrastruktury informatycznej, zaczynając od pamięci masowych i funkcji zarządzania danymi. Programiści nie chcą się nad tym zastanawiać, chcą po prostu pracować. Wszystko ma się odbywać „automagicznie” i już! Szczególnie w przypadku konteneryzacji i technologii „bezserwerowych” tendencja do zwiększania poziomu abstrakcji poszczególnych systemów i usług sprawi, że architekci systemów informatycznych zaczną projektować rozwiązania pod kątem danych i ich przetwarzania, tak aby zbudować hybrydowe, obejmujące wiele chmur infrastruktury przetwarzania danych, a nie zwykłe centra obliczeniowe.  Dzięki zastosowaniu technologii i diagnostyki predykcyjnej osoby podejmujące decyzje będą mogły w większym stopniu oprzeć się na wyjątkowo niezawodnych, „niewidzialnych” usługach przetwarzania, udostępniających dane niezależnie od miejsca ich przechowywania tam, gdzie są potrzebne i wtedy, kiedy są potrzebne. Dzięki takim nowym możliwościom uda się również zautomatyzować proces udostępniania usług infrastrukturalnych w postaci dynamicznych produktów standardowych, a także proces przesyłania kontenerów i obciążeń między rozwiązaniami różnych usługodawców w celu zastosowania najbardziej efektywnego w danym przypadku rozwiązania.

 

4. Jedną z możliwości będzie tworzenie rozwiązań dla środowisk wielochmurowych (a każdy wybór, jak wiadomo, niesie ze sobą pewne konsekwencje

– Hybrydowe, obejmujące wiele chmur środowiska staną się standardową architekturą informatyczną większości dużych przedsiębiorstw, natomiast inne organizacje zdecydują się na prostotę i spójność oferowane przez pojedynczego dostawcę.

 

Dzięki kontenerom obciążenia obliczeniowe staną się wyjątkowo przenośnymi obiektami. Same dane mogą być jednak znacznie mniej przenośne niż zasoby obliczeniowe i aplikacje, co będzie mieć wpływ na przenośność środowisk wykonawczych. Nawet po rozwiązaniu problemów dotyczących „grawitacji” danych, ich spójności, bezpieczeństwa i ochrony, oraz uwzględnieniu innych aspektów, wciąż może wystąpić zjawisko uzależnienia od jednej platformy i usług specyficznych dla danego dostawcy usług chmurowych, na których to usługach należy się oprzeć w projektowanym rozwiązaniu, zupełnie niedającym się przenieść do innej chmury. W efekcie mniejsze przedsiębiorstwa będą wolały budować rozwiązania we własnym zakresie, bez korzystania z oferty dostawców usług chmurowych albo zdecydują się na prostotę, optymalizację i automatyczne zarządzanie, które można uzyskać dzięki wyborowi pojedynczego dostawcy. A dostawcy bez wątpienia opracują nowe mechanizmy oferujące korzyści firmom decydującym się na zastosowanie ich platform. Z drugiej strony większe przedsiębiorstwa będą oczekiwały elastyczności, niezależności i niskich kosztów, które wynikają z możliwości przemieszczania aplikacji między chmurami. Zastosują kontenery i infrastrukturę przetwarzania danych, aby uniknąć uzależnienia od jednego dostawcy, zapewnić pełną przenośność i zachować pełną kontrolę nad rozwojem środowiska. Niezależnie od wybranej drogi organizacje dowolnej wielkości muszą pomyśleć o opracowaniu strategii i procedur pozwalających zmaksymalizować korzyści z zastosowanego rozwiązania.

 

5. Kontenery: naprawdę fajna nowość

Koordynacja działania chmury oparta na kontenerach umożliwi tworzenie aplikacji rzeczywiście przygotowanych do działania w chmurach hybrydowych.

 

Zaletą kontenerów jest między innymi możliwość uniezależnienia się od konkretnego dostawcy usług. Technologie konteneryzacji, takie jak Docker, będą nadal mieć znaczenie, ale standardem de facto w dziedzinie tworzenia aplikacji dla środowisk wielochmurowych stanie się Kubernetes, co nie jest zresztą zbyt odkrywczym stwierdzeniem. Istnieje jednak pewien bardzo interesujący aspekt tego zagadnienia: nowe, oparte na kontenerach technologie koordynacji działania chmury umożliwią tworzenie aplikacji przeznaczonych dla chmur hybrydowych, a to oznacza, że nowe aplikacje będą mogły działać zarówno w chmurze publicznej, jak i w środowisku lokalnym: zniknie potrzeba ciągłego przenoszenia aplikacji między środowiskami. Coraz łatwiej będzie przenosić obciążenia w miejsce, w którym generowane są dane, a nie odwrotnie, jak w tradycyjnym podejściu.