Lenovo: Efektywność infrastruktury IT nabiera kluczowego znaczenia – Warunkiem cyfrowej transformacji jest transformacja infrastruktury.

Warunkiem cyfrowej transformacji jest transformacja infrastruktury. W miarę jak firmy i ich potrzeby biznesowe dynamicznie się zmieniają, działy IT powinny szybko rozwijać posiadaną infrastrukturę. W przeciwnym razie ryzykują, że prowadzone przez ich organizacje projekty cyfrowej transformacji zakończą się porażką. „Efektywność infrastruktury IT nabiera kluczowego znaczenia. W każdym sektorze, firmy mierzą się ze znaczącą transformacją swoich biznesów. Tak jak to zrobiły Airbnb, Uber oraz inne Amazony, na ich pole wkracza coraz więcej i więcej wykorzystujących technologie cyfrowe konkurentów, których procesy i infrastruktura są bardziej elastyczne” – przekonuje Ludovic Levé, dyrektor zarządzający francuskim oddziałem Lenovo Data Centre Group.

 

W związku z tym przedsiębiorstwa muszą dokonać transformacji IT przy zachowaniu pod ścisłą kontrolą kosztów – tylko w ten sposób będą w stanie zmierzyć się z tymi wyzwaniami. Wymaga to od nich stworzenia skalowalnych, charakteryzujących się wysoką wydajnością centrów danych przy wykorzystaniu rozwiązań technologicznych, takich jak definiowane programowo pamięci masowe (SDS), sieci (SDN), technologie Flash oraz zarządzanie systemami HPC (High-Performance Computing). Jednym z czynników, które kierują firmy ku rozwiązaniom definiowanym programowo, jest rosnące wykorzystanie chmury obliczeniowej. Cloud computing staje się – według ankiety przeprowadzonej na zlecenie Lenovo – centrum IT dla 74% CIO w regionie EMEA, którzy rozpoczęli projekty cyfrowej transformacji w 2016 r. Kolejne 20% przedsiębiorstw planuje uruchomienie podobnych przedsięwzięć w tym roku. Obecnie przedsiębiorstwa zmagają się z coraz bardziej rozproszonymi systemami informatycznymi. Przy tym muszą zarządzać coraz bardziej mobilnymi zespołami oraz wzrastającą liczbą punktów dostępowych. SDN to jeden z kluczy do rozwiązania tych problemów.

 

Przykładowo, narzędzia do zarządzania oprogramowaniem oferowane przez VMware, Citrix czy Cisco mogą skalować system automatycznie. Kiedy mamy do czynienia z zespołami mobilnymi, takie narzędzia pozwalają menedżerom IT tworzyć wirtualne sieci prywatne (VPN), w celu dostarczenia bezpiecznego dostępu do aplikacji korporacyjnych. Można to osiągnąć poprzez skalowalnie i organizowanie indywidualnych maszyn wirtualnych dla każdego pracownika. W przypadku wystąpienia fizycznej awarii w infrastrukturze sieciowej, SDN może dokonać przełączenia obciążeń do obszarów działających poprawnie i zapewnić, że usługi będą świadczone.

 

Zarządzanie hybrydyzacją bez SDN jest ryzykowne

Hybrydyzacja IT stała się znaczącym zagadnieniem. Wykorzystywanie publicznej i prywatnej chmury równolegle z tradycyjną infrastrukturą jest już normą. W tej sytuacji kluczową technologią staje się sieć SDN, która zapewnia łączność pomiędzy różnymi częściami infrastruktury. Właśnie dlatego 87% operatorów centrów danych zainstalowało takie rozwiązania w swoich systemach w 2016 r. Przykładowo, z myślą o zapewnieniu poprawnego działania usług na swoich stronach handlowych w momentach szczytowych obciążeń, francuska kolej SNCF używa SDN do przenoszenia części obciążenia na infrastrukturę IaaS oferowaną przez dostawcę chmury OVH. Wiele organizacji zbudowało prywatne chmury, które mogą obsłużyć rosnące wymagania obciążeń. To jednak wymusza zastosowanie skalowalnej infrastruktury o wysokiej dostępności. Choć normą jest używanie serwerów x86, niektórzy producenci, tacy jak Lenovo w przypadku systemów NeXtScale, oferują także układy ARM. Pozwalają one ograniczyć zużycie energii, a co za tym idzie – również koszty.

 

SDS: trzy typy, jedno rozwiązanie

Oprogramowanie zaczyna odgrywać coraz większą rolę także w przypadku macierzy dyskowych. Obecnie na rynku dominują trzy typy pamięci masowej: obiektowa (NAS), blokowa (SAN) oraz plikowa – zyskująca popularność dzięki jej zastosowaniu w chmurze Amazon S3. Każdy z nich stanowi odpowiedź na inne wymagania, a to oznacza, że muszą one współistnieć w infrastrukturze, a idealnie, na jednym systemie. To właśnie oferują dostawcy: hiperkonwergentne rozwiązania pamięci masowej łączące trzy typy pamięci masowej. Niektórzy producenci, np. Lenovo w przypadku systemów DX8200 oraz ThinkServer, proponują wbudowane rozwiązania SDS, takie jak vSAN, NexentaStor (pamięć blokowa i obiektowa) oraz Cloudian (pamięć obiektowa i plikowa). Rozwiązania SDS mogą również wspomagać backup oraz odtwarzanie danych. „Nawiązujemy relacje z tak wieloma firmami jak to tyko możliwe. Naszymi partnerami są VMware, Cisco, Juniper, Nutanix oraz Cloudian. Dostarczają oni rozwiązania programowe dla naszych systemów sprzętowych” – wyjaśnia Ludovic Levé. Zresztą hybryda jest prawdziwym fundamentem współczesnej pamięci masowej. Podczas gdy nadal w użyciu są dyski twarde, wiele firm stawia na napędy SSD, ponieważ zależy im na większej wydajności na potrzeby krytycznych aplikacji i danych. Dane to dla przedsiębiorstw źródło zysku. Dlatego sposób ich przetwarzania znajduje się w centrum zainteresowania. To wyjaśnia popularność technologii Flash. Jeśli mówimy jednak o przechowywaniu dużych wolumenów danych, napędy SSD wciąż stanowią problem ze względu na stosunek ceny do objętości. Choć producenci próbują go rozwiązać – jak Lenovo, które wkrótce przedstawi płytę pamięci masowej flash 48 TB – standardem jest wykorzystywanie systemów hybrydowych. Najbardziej efektywnym sposobem połączenia tych dwóch rozwiązań jest system, który wykorzystuje rozwiązania SDS do zarządzania danymi.

 

Biogema: 99-proc. wzrost wydajności dzięki HPC

Dane zyskują na znaczeniu także dlatego, że rośnie popularność internetu rzeczy (IoT) oraz sztucznej inteligencji. Ich powszechne zastosowanie oznacza eksplozję wolumenów danych oraz ogromny wzrost zapotrzebowania na moc obliczeniową. Mierząc się z tymi wyzwaniami, działy IT powinny postawić przede wszystkim na rozwiązania maksymalnie skalowalne. Dlatego systemy hiperkonwergentne stają się jednym z kluczy do skutecznej transformacji. Mogą być wykorzystane, żeby spełnić wiele współczesnych wymagań. Niezależnie, czy mówimy o pamięci masowej, sieci czy przetwarzaniu. Systemy hiperkonwergentne zapewniają również duże możliwości skalowania horyzontalnego. Poprzez dodawanie rozwiązań, takich jak Nutanix czy Scality, można różnicować wielkość infrastruktury na żądanie i szybko odpowiadać na potrzeby w obszarze pamięci masowej. Jeśli chodzi o przetwarzanie, coraz częstsze jest stosowanie systemów HPC z procesorami Intel Xeon lub układami GPU Nvidia. Przykładowo, laboratorium Biogema zatrudniło Lenovo do integracji rozwiązania HPC składającego się z NeXtScale nx, System x3850 oraz IBM Storwize i tworzącego klaster z 200 rdzeniami. Ta infrastruktura pozwoliła osiągnąć zysk wydajności sięgający 99%.

 

Skalowalność dla SAP Hana

Współczesne definiowane programowo infrastruktury umożliwiają również szybkie wprowadzanie zmian w rozwiązaniach wykorzystywanych w firmach od lat, takich jak ERP. Dzięki bazie danych działającej w pamięci (in-memory), HANA firmy SAP zrewolucjonizowała świat systemów wspierających funkcjonowanie przedsiębiorstw. Pozwoliła bowiem osiągnąć poziomy wydajności znacznie przekraczające możliwości systemów konwencjonalnych. Natomiast, poprzez tworzenie rozwiązań pamięci masowej in-memory, dostawcy tacy jak Lenovo oferują systemy bezpośrednio zoptymalizowane pod kątem najnowszej platformy ERP firmy SAP. „Działy IT są dziś zmuszone zmierzyć się z przyspieszającymi zmianami w zakresie wymagań stawianych przez korporację oraz użytkowników. Na szczęście, na rynku są dostępne rozwiązania, które pomagają w uporaniu się z nimi – niezależnie, czy mówimy o SDS, SDN, systemach hiperkonwergentnych czy nawet HPC” – twierdzą przedstawiciele Lenovo.