Cloud przyszłością biznesu. Główne zasady przenoszenia danych do chmury, które pozwolą zaoszczędzić na migracji i eksploatacji.

Analitycy IDC przewidują, że w ciągu najbliższych dwóch lat liczba firm, w których toczyć się będą procesy transformacyjne, wyniesie przynajmniej 60 proc. (1). Potwierdzają to eksperci Gartnera, którzy uważają, że tylko przejście procesu transformacji cyfrowej jest gwarantem dalszego wzrostu przedsiębiorstwa w erze digitalizacji. Migracja danych do chmury jest jednym z ważnych aspektów transformacji. Z danych Cisco Global Cloud Index wynika, że do 2021 roku 94 proc. firm zrezygnuje z własnych centrów danych (2). Ale jak przenieść dane do chmury, by ich migracja w istocie przyniosła przedsiębiorstwu korzyści finansowe?

Wbrew pozorom, z chmury korzystać mogą nie tylko duże korporacje, które dysponują olbrzymimi zbiorami danych. To rozwiązanie, które przyda się zarówno największym na świecie koncernom spożywczym, czy przemysłowym, jak i niewielkim, rodzinnym przedsiębiorstwom – bo one także mogą zaoszczędzić, przechowując dane w chmurze. Przykładem mogą być firmy zajmujące się przygotowywaniem na zlecenie materiałów wideo, które obecnie nie muszą posiadać komputerów za kilkanaście tysięcy złotych, by móc wyrenderować przygotowywane filmy. Mogą bowiem wysłać materiał do chmury i tam przeprowadzić cały proces z wykorzystaniem Amazon Elastic Transcoder. Koszt takiego rozwiązania to zaledwie kilka dolarów. Potem film może w cloudzie zostać – jest tam bezpieczny, a niektórzy dostawcy, jak Amazon, gwarantują dostępność plików nawet na poziomie 99,999999999 proc. Oznacza to, że jeśli w chmurze Amazon S3 przechowywane jest 10 tys. obiektów, to utracony zostanie średnio jeden z nich raz na 10 mln lat.
Cloud docenią też z pewnością firmy prowadzące szkolenia z obsługi zaawansowanego oprogramowania. Teraz nie muszą już wydawać olbrzymich pieniędzy na zakup infrastruktury. Wystarczy stworzyć ją w chmurze, a kursantom wystarczy zwykły laptop i dostęp do internetu. Po szkoleniu całą infrastrukturę można spokojnie wyłączyć. Oszczędności pojawią się bardzo szybko.
Niezależnie jednak od tego, jak dużo danych firma planuje przechowywać w usłudze cloudowej, istnieje kilka zasad, o których należy pamiętać, jeśli ich migracja naprawdę ma przynieść korzyści.

Po pierwsze, nie kopiuj infrastruktury 1:1

Klienci, którzy posiadają infrastrukturę w klasycznych data centers, liczą zwykle na to, że ich migracja do chmury pozwoli zaoszczędzić dużo pieniędzy w krótkim czasie. To właściwe podejście, ale pod warunkiem, że infrastruktura nie zostanie przeniesiona do chmury 1:1.

Przy migracji danych należy spojrzeć na infrastrukturę z zupełnie nowej perspektywy i wykonać tzw. “redesign” – czyli zaprojektować ją od nowa w taki sposób, by była dopasowana do wybranej usługi cloudowej. Właściwe podejście zakłada rozbicie jej na mniejsze elementy – mówi Rafał Soszka, Senior Consultant z Capgemini.

Soszka rozumie przez to między innymi elementy fizycznej infrastruktury, takie jak serwery, data center (które mogą należeć do firmy będącej właścicielem bazy danych lub mogą być przez nią wynajmowane u zewnętrznego usługodawcy), ale także oprogramowanie, potrzebne licencje (np. na oprogramowanie do backupu, program antywirusowy czy oprogramowanie do monitoringu, które pozwala zadbać o utrzymanie serwera). Wszystkie te elementy wiążą się z dodatkowymi kosztami. A to tylko część kosztów związanych z utrzymaniem tradycyjnego serwera. Pochłania on bowiem jeszcze prąd, miejsce oraz wymaga zespołu specjalistów do właściwej obsługi.

Kiedy architekt rozpozna wszystkie elementy infrastruktury, musi dokonać ich reorganizacji. Dzięki niej możliwe będzie lepsze wykorzystanie możliwości usług chmurowych danego dostawcy. Niesie to za sobą wiele korzyści. Po pierwsze, jest o wiele tańsze, bo płaci się tylko za to, co aktualnie się wykorzystuje. Nie interesuje nas koszt utrzymania, naprawy, czy unowocześniania infrastruktury w rozumieniu tradycyjnego data center. Wszystko jest wliczone w te kilka centów za godzinę pracy – podkreśla Rafał Soszka. 

Soszka dodaje, że skala oszczędności zależy od rozmiaru firmy i ilości danych, które chciałaby przechowywać w chmurze. Sam pracował przy olbrzymich projektach. Zajmował się m.in. projektem realizowanym w Capgemini na zlecenie dużego brytyjskiego producenta żywności, który posiadał olbrzymią bazę serwerów fizycznych, ale korzystał z nich  tylko przez kilka dni w miesiącu, po to, by dokonać analizy danych. Koszt zakupu infrastruktury, a potem jej utrzymania był niebagatelny. Mimo że maszyny działały tylko przez kilka dni w miesiącu, za działanie serwerów w data center trzeba było płacić ciągle. Chmura pozwoliła zredukować te koszty: nie tylko za przechowywanie danych, lecz także za ich przetwarzanie.
Z podobnego rozwiązania korzysta obecnie Phillips. Firma realizuje projekt platformy cyfrowej “Philips HealthSuite”, który jest oparty na rozwiązaniu cloudowym oferowanym przez Amazon. Projekt zakłada analizę olbrzymich ilości danych medycznych (liczonych w petabajtach) dotyczących prawie 400 milionów rekordów danych i opracowywanie ich w taki sposób, by były przydatne dla lekarzy obejmujących tych ludzi profesjonalną opieką. Koszt projektu jest nieporównanie niższy niż koszt podobnego projektu realizowanego poza chmurą – przy użyciu serwerów fizycznych.
Zalety płynące z przeniesienia danych do chmury docenił też New York Times.

Redakcja gazety postanowiła przekonwertować swoje materiały, dotychczas przechowywane w postaci plików TIFF, do plików PDF, by następnie móc je publicznie udostępnić. Koszty szacowano początkowo na kilkadziesiąt tysięcy dolarów – zakup sprzętu, uruchomienia i utrzymania. Kiedy okazało się, że można do tego celu wykorzystać chmurę, koszty te spadły do poziomu kilkuset dolarów – mówi Rafał Soszka. 

 

Po drugie, korzystaj z automatyzacji

Automatyzacja jest sprzymierzeńcem inżynierów odpowiedzialnych za przenoszenie danych z serwerów fizycznych do chmury. I chociaż nie wszystko da się zautomatyzować, to i tak zalety płynące z tego rozwiązania są olbrzymie – szczególnie w przypadku średnich i dużych projektów.

Kiedy inżynier musi np. zmienić adres serwerów DNS z którego korzystają serwery, może to zrobić ręcznie. W przypadku 10 czy 15 serwerów można to wykonać ręcznie. Kiedy jednak liczba serwerów wynosi 100 lub 1000, a takie projekty nie są rzadkością, ilość pracy, jaką trzeba włożyć w ich konfigurację, jest ogromna – przekonuje Rafał Soszka. 

 

Tymczasem wystarczy ten proces powierzyć “robotom”. Wystarczy, że inżynier napisze kod, na podstawie którego dedykowane oprogramowanie wykona pracę konfiguracyjną za człowieka. Kolejnym etapem migracji danych do chmury, po analizie elementów infrastruktury i zaprojektowaniu jej pod usługi chmurowe, jest zatem napisanie właściwego skryptu w celu automatyzacji procesu. Wówczas, niezależnie od tego, czy wymagane będzie zbudowanie 20, 200 czy 2000 serwerów w chmurze, automat wykona tę pracę w czasie dużo krótszym, niż inżynier, który tę samą pracę wykonałby manualnie. Ten bowiem, wykonując pracę „ręcznie”, od A do Z, jest w stanie zbudować od jednego do kilku serwerów dziennie.
Dzięki automatyzacji możliwe jest zatem budowanie całych platform w ciągu godzin, a nawet minut. Ale automatyzacja może pomóc nie tylko w inicjalnej fazie projektu, kiedy chodzi o konfigurację nowych serwerów. Jest  niezwykle przydatna także w przypadku już działających platform, które muszą na przykład obsłużyć wzmożony ruch ze strony użytkowników, jak platformy VOD. Netflix, na przykład, korzysta w tym celu z rozwiązania Cloudfront EC2 od Amazona.  W chwili premiery nowego odcinka znanych seriali platforma działa płynnie, wzmożony ruch jest automatycznie wykrywany, co powoduje automatyczne uruchomienie kolejnych maszyn. Bez skorzystania z rozwiązania cloudowego w podobnej sytuacji należałoby z góry przewidzieć, ile serwerów trzeba przygotować. To trudne, bo nie wiadomo, jakim zainteresowaniem cieszyć się będzie premiera. Z kolei przygotowanie zbyt dużej liczby serwerów generowałoby duże koszty dla firmy. Chmura sprawdza się tutaj idealnie.
Zdaniem Rafała Soszki, automatyzacja procesów toczących się w chmurze lub konfiguracja nowych maszyn jest prosta, o ile inżynier skorzysta z pomocy odpowiednich narzędzi.

Na przykład, w przypadku rozwiązań dostarczanych przez Microsoft, przydatna jest znajomość języka skryptowego Powershell, który pozwala zarządzać posiadaną platformą. Przydatna jest również znajomość takich rozwiązań jak Ansible, Puppet, czy Chef, które ułatwiają budowanie, konfigurowanie i zarządzanie wielkimi środowiskami – mówi Rafał Soszka. 

 

Po trzecie, zadbaj o bezpieczeństwo danych

Coraz więcej firm decyduje się na korzystanie z chmury w formie backupu. Gdyby serwery fizyczne zawiodły, dane będzie można pobrać z chmury. Niestety, w czasach, kiedy coraz częściej mówi się o ochronie danych, nie wszystkie dane możemy do niej wysłać. Dane muszą być bowiem odpowiednio zabezpieczone, lub też znajdować się w konkretnym miejscu. Zdarza się zatem, że firmy poddają migracji tylko część posiadanych danych, na przykład 30 proc. czy połowę.

Niekiedy to prawo nakazuje przechowywanie danych w data center, które znajduje się na przykład w określonym kraju, zabraniając ich przetwarzania w chmurze. Niektóre kraje nie zezwalają na wysyłanie swoich danych poza granice państwa. Czasem to klient, który chce dokonać migracji, ma życzenie, by jego dane po migracji przechowywane były w data center położonym w określonym państwie – dodaje Rafał Soszka. 

Na szczęście dostawcy usług cloudowych wychodzą naprzeciw takim potrzebom. Istnieje możliwość szyfrowania plików przechowywanych w chmurze. Dane można nie tylko zaszyfrować po swojej stronie, ale dodatkowo także w chmurze. Klucz do nich otrzymuje tylko klient. Jeśli go zgubi, usługodawca nie będzie w stanie mu pomóc i umożliwić dostępu do danych przechowywanych w centrum.