Niemal każda polska firma gromadzi dane, ale mało która potrafi zaprząc te dane do roboty. Według Gartnera niewykorzystany potencjał gromadzonych danych paraliżuje wzrost przedsiębiorstw i jest hamulcem ich rozwoju.

Niemal każda polska firma gromadzi dane, ale mało która potrafi zaprząc te dane do roboty. Według Gartnera niewykorzystany potencjał gromadzonych danych paraliżuje wzrost przedsiębiorstw, ponieważ jest hamulcem ich rozwoju. A w najbliższym czasie, jak szacują badacze, co druga firma nie znajdzie kompetencji, by ten rezerwuar wiedzy przekuć w biznesową wartość.

 

Data literacy znaczy „czytanie” danych

W ciągu ostatnich kilku lat wytworzyliśmy więcej informacji niż od początku ludzkości. Firmy gromadzą dane zarówno na temat swoich klientów, dostawców i operacji, a ich ilość globalnie podwaja się co 18 miesięcy. Teoretycznie ta lawina informacji, wsparta narzędziami analitycznymi, oferuje firmom wprost nieograniczone możliwości: lepsze zrozumienie, czego potrzebują klienci i szybsze dotarcie z atrakcyjniejszą ofertą. Teoretycznie, bo badania OVHcloud wykazały, że dane zbierają niemal wszystkie polskie przedsiębiorstwa, ale aż 40% nic z tą wiedzą nie robi. Tymczasem Gartner definiuje umiejętność zarządzania danymi (Data Literacy) w odniesieniu do przedsiębiorstw jako zdolność wręcz krytyczną. Data Literacy to wyłuskiwanie cennych informacji na podstawie potężnych zbiorów, stosowanie analityki i dzielenie się tą wiedzą. Data Literacy polega na wykorzystaniu w praktyce zebranych miliardów terabajtów i rozumieniu potencjału, jakie oferują poprzez stawianie właściwych pytań i poprawną interpretację wyników. Umiejętność „czytania” danych stała się strategiczną inwestycją w rozwój biznesu.

 

Rezerwuar niewidocznej wiedzy

Pojęcie Data 3.0 odnosi się do gospodarki cyfrowej opartej na wiedzy i kompetencjach związanych z przetwarzaniem danych. Data 3.0 to innowacyjny model prowadzenia biznesu z analizowaniem wielkich zbiorów celem usprawniania działania firmy oraz doskonalenia jej oferty. Na tym polu wygrywają ci, którzy potrafią przekuć gromadzone informacje w konkretną wiedzę, a ponieważ rynek nie lubi próżni, miejsce tych mniej zorientowanych zajmują nowi gracze z lepiej dopasowaną ofertą. Im więcej firm poprze swoje działania wiedzą wynikającą z danych, tym szybciej zepchną ze sceny tych, którzy nie znajdą na czas potrzebnych kompetencji, opierając biznesowe decyzje na założeniach, hipotezach i analizach post factum.

 

Kluczowe jest też dzielenie sią wiedzą. Jeśli poza działem analiz nikt nie rozumie języka danych, to nie ma znaczenia jak wielką wartość biznesową one przedstawiają. Bez analizy i obróbki są rezerwuarem niewidocznej wiedzy. Jako że dane są aktywem, który gromadzony jest niejako automatycznie, rozsądnie jest przyjąć, że ich przechowywanie może być cenną inwestycją dla długoterminowej przyszłości i celów firmy.

 

– Ogromne ilości danych są zasobem biznesowym, którym należy zarządzać. Mamy świadomość tych potrzeb, tym bardziej, że stanowi to przedmiot zainteresowania 1,5 miliona naszych klientów. Dla OVHcloud storage jest przyszłością, stąd m.in. poprzez przejęcia innowacyjnych startupów zamierzamy pracować nad stworzeniem wysoce skalowalnej oferty, wykorzystującej najlepszą infrastrukturę w jak najatrakcyjniejszej cenie – mówi Robert Paszkiewicz VP, Central and Eastern Europe w OVHcloud.Chmura jest bezpiecznym, elastycznym i sprawdzonym rozwiązaniem, które pozwala organizacjom na strategiczne skalowanie przechowywania danych teraz i w przyszłości. Usługę przechowywania danych od sprawdzonego dostawcy można z powodzeniem wdrożyć w nowych, startujących środowiskach albo dostosować ją pod już istniejące rozwiązania IT. Cloud może także wesprzeć ewolucję IT. Model „pay-as-you-go” jest wygodny i bezpieczny.

 

Chmura odpowiada na wyzwania związane z przyrostem danych w warstwie fizycznej, ponieważ w tym modelu o wiele więcej danych może być przechowywane na mniejszej powierzchni, zużywając przy tym mniej energii potrzebnej m.in. do chłodzenia serwerów, stanowiącej kolosalny wydatek. Cloud umożliwia też przetwarzanie potężnych zbiorów w warstwie logicznej. Analiza dużych ilości danych jest wykorzystywana m.in. do zmiany strategii biznesowych, prognoz, adaptowania priorytetów operacyjnych, wreszcie eliminowania ryzyka błędu i niepotrzebnych kosztów. Jako wysokoskalowalne rozwiązanie, chmura jest wprost stworzona dla potrzeb Big Data oraz zadań wymagających potężnej mocy obliczeniowej, niezbędnej do działań z obszarów uczenia maszynowego oraz sztucznej inteligencji, ponieważ oferuje rekordową wydajność.

 

– Chmura to najbardziej innowacyjne rozwiązanie ostatnich lat, pozwalające na przetwarzanie niemal nieograniczonych zbiorów danych. Do ich obliczeń wykorzystujemy główne zasoby mocy obliczeniowej, czyli CPU i RAM i właśnie te dwa elementy najbardziej kojarzone są z chmurą obliczeniową oraz jej wydajnością. W procesie przetwarzania danych tj. machine czy deep learning, nie bez znaczenia pozostaje także storage, czyli miejsce, gdzie zapisywane i skąd pobierane są dane. Niestety dużo danych gromadzonych jest w wielu miejscach, zróżnicowanych pod względem wydajności zapisu dyskach oraz formatów i apikacji. Powoduje to problem w zarządzaniu, dostępności i synchronizacji danych, co w wielu biznesach skutkuje tym, że posiadane dane nie są wykorzystywane na potrzeby firmy. – mówi Tomasz Sobol Product Manager z OVHcloud. W OVHcloud, dzięki zastosowaniu innowacyjnej technologii, uzyskanej wraz z przejęciem OpenIO, problem różnicy wydajności sprzętowej, formatu zapisu, skalowalności i wydajności przestaje istnieć. Dzięki oprogramowaniu, które zarządza dynamicznymi elementami pamięci masowej możliwe jest optymalne pozycjonowanie danych, stała wydajność oraz możliwość łączenia różnych źródeł storage danych – dodaje.        

 

W 2017 roku The Economist opublikował głośny artykuł pod tytułem „Najcenniejszym zasobem na świecie nie jest już ropa naftowa, ale dane”. Publikacja wywołała falę gorących dyskusji, teza weszła do powszechnego obiegu, a ilość danych od tego czasu wzrosła kilkukrotnie. Tymczasem same dane, jeśli są pozbawione potrzebnego kontekstu, nie wystarczą do oceny sytuacji. Jeśli nie są na bieżąco analizowane, tkwią rozproszone w plikach, setkach tysięcy stron, raportach z transakcji i analizach miesięcy, niczego nie ułatwiając. Skoro zapowiedź pogorszenia pogody wpływa na przykład na decyzje zakupowe klientów, to konkurencja, która o tym wie, przygotuje wcześniej potrzebne scenariusze i dotrze do naszych klientów przed deszczem.

 

https://itreseller.pl/itrnewto-prawdopodobnie-najwazniejsza-transakcja-tego-roku-nvidia-kupuje-arm-za-40-miliardow-dolarow-umowa-czeka-na-ocene-regulatorow-co-moze-oznaczac-to-przejecie/