Data Science paliwem napędowym koncepcji Przemysłu 4.0 – Optymalizacja, monetyzacja i analityka, pod znakiem tych pojęć będą się rozwijać firmy z sektora przemysłowego w PL.
Optymalizacja, monetyzacja i analityka. Pod znakiem tych pojęć będzie się rozwijać w Polsce coraz więcej firm z sektora przemysłowego, wynika z analizy firmy TogetherData. Jednym z kluczowych trendów, który przyczyni się w 2019 roku do szerszej realizacji koncepcji Przemysłu 4.0 wśród polskich przedsiębiorstw będzie zbieranie, agregacja i analiza dużych zbiorów danych. Natomiast standardem mającym na celu wsparcie procesów decyzyjnych, identyfikacji nieefektywności oraz maksymalizacji jakości produkcji będzie Data Science – jedna z gałęzi Big Data. Odpowiednie wdrożenie tych działań może poprawić wyniki poszczególnych działów nawet o 15% – przewidują analitycy z TogetherData.
Big Data, a Data Science
Data Science to dziedzina analityki szerokich strumieni danych, którą zaczyna się określać mianem „nauki o danych”. Jest to proces pozyskiwania, analizowania, wizualizacji i wnioskowania z zarówno ustrukturyzowanych jak i nieustrukturyzowanych danych, z użyciem m.in. takich technologii jak uczenie maszynowe i analiza predykcyjna. „Nauka o danych” w przeciwieństwie do Big Data, nie tylko agreguje i przetwarza dane, ale także tworzy całościowy model ich analizy, ukierunkowanej pod uzyskanie odpowiednich informacji i wniosków. W ciągu najbliższych dwóch lat zapotrzebowanie na wdrożenie systemów Data Science w Polsce wzrośnie nawet o 40 proc., wynika z szacunków firmy analitycznej TogetherData. Największy popyt będzie panował wśród firm z sektora produkcyjnego.
„Big Data w przemyśle to jedynie prosta wizualizacja danych pozyskanych przykładowo z czujników monitorujących awarię na linii produkcyjnej. Natomiast Data Science, czyli „nauka o danych” wyznacza cele do osiągnięcia, determinuje rodzaj danych potrzebnych do analizy oraz dobór modelu statystycznego. – mówi Michał Grams, Prezes Zarządu TogetherData. W średniej wielkości zakładzie produkcyjnym z branży FMCG liczba zdarzeń podlegających ciągłej zmianie wartości jest liczona w tysiącach na sekundę. Dzięki odpowiedniemu zastosowaniu algorytmów, można przewidzieć jakie są główne czynniki wpływające na obniżenie bądź zwiększenie jakości produktu.”
Data Science – kluczowy element Przemysłu 4.0
Dzięki zastosowaniu odpowiednich algorytmów systemy Data Sciecne są w stanie identyfikować wąskie gardła produkcji oraz zredukować występowanie awarii oraz przestojów w działaniu linii produkcyjnej . Zdaniem ekspertów TogetherData, analiza danych historycznych i aktualnych pochodzących z raportów dotyczących kontroli jakości oraz przebiegu procesów produkcji, umożliwia zwiększenie efektywności produkcji o średnio 15 proc. Natomiast analiza predykcyjna informacji pochodzących z inteligentnych czujników oraz sensorów rozlokowanych na linii produkcyjnej przyczynia się do optymalizacji kosztów produkcyjnych, w tym do zmniejszenia o średnio 20 proc. kosztu utrzymania i serwisowania maszyn.
Analiza danych dotyczących planowania oraz zapotrzebowania na dostawy, informacjach o pogodzie, czy remontach dróg pozwala na zwiększenie terminowości o średnio 10 proc., oraz optymalizację kosztów logistycznych o średnio 15 proc. Możliwa staje się predykcja zapotrzebowania oraz efektywniejsze zaplanowanie dostarczenia zaopatrzenia, a także optymalizacja stanów magazynowych. Dzięki integracji danych z każdego etapu życia produktu, możliwe jest podniesienia jakości w łańcuchu dostaw o blisko 10 proc., wynika z szacunków TogetherData.
„Zastosowanie narzędzi Data Science umożliwia identyfikację głównych czynników wpływających na obniżenie, bądź zwiększenie jakości produktów poprzez monitorowanie i analizę danych dot. procesu produkcji, jakości wyrobów, ilości wad w danych partiach towarów. Po agregacji tych danych z danymi dotyczącymi zakupów czy logistyki możliwa będzie historyczna analiza pochodzenia surowca, jego jakości oraz predykcja wskaźników wpływających na niższą niż średnia jakość produktu końcowego.” – mówi Michał Grams, Prezes TogetherData.
Analiza prognozy pogody i zbiorów z lat poprzednich daje firmom z branży produkcji żywności możliwość przewidywania wolumenów produkcji. Inteligentne algorytmy są w stanie zautomatyzować proces oceny ryzyka niewypłacalności potencjalnych kontrahentów i klientów, co umożliwia otrzymanie prognoz o ewentualnym opóźnieniu w płatnościach. Z danych TogetherData wynika także, że zastosowanie narzędzi Data Science przyczynia się do efektywnej estymacji marży produktowej oraz audytu wydatków marketingowych jak i automatyzacji predykcji ROI z działań reklamowych.
Główne wyzwania
Różnorodność dostępnych źródeł danych stwarza trudności w stosowaniu i wdrażaniu systemów analitycznych. Zdaniem ekspertów TogetherData, tylko cztery na dziesięć firm w Polsce nie skarży się na brak specjalistycznej wiedzy, aby móc wykorzystać duże zbiory danych do dalszej analizy. Uporządkowanie zetabajtów informacji pochodzących zarówno ze źródeł online jak i offline, jest największym wyzwaniem dla podmiotów z branży przemysłowej. Wynika to z faktu, iż wciąż poziom cyfryzacji polskich przedsiębiorstw jest zatrważająco niski. Badania przeprowadzone w 2018 roku przez firmę ASD Consulting dowodzą, iż 84 proc. firm z branży produkcyjnej gromadzi informacje ręcznie, a co czwarte przedsiębiorstwo przetwarza je analogowo w formie papierowej. Systemami skanerowymi i kodami kreskowymi wspomaga się jedynie 16 proc. firm, a zautomatyzowane procesy gromadzenia cyfrowych informacji z cyklu produkcyjnego wykorzystuje niespełna 12 proc. przedsiębiorstw. Największą barierą blokującą proces „datyzacji” polskiego przemysłu jest opór pracowników – wynika z badania ASD Consulting.
„Wyzwaniem dla polskich przedsiębiorców będzie nie tylko sama kwestia wdrożenia narzędzi analizujących dane, ale także sprytnej i efektywnej strategii ich badania i wykorzystania. Moda na Big Data zmieni się w trend Data Science. – tłumaczy Michał Grams. – Firmy muszą zmienić swoje podejście. Nie liczy się bowiem ilość badanych i wykorzystanych biznesowo danych, lecz technologia, rodzaj i forma narzędzi używanej do analizy – dodaje. Zdaniem ekspertów z TogetherData agregacja danych z wielu źródeł oraz wygenerowanie wysokopoziomowej, między-departamentowej bazy pozwala zwiększyć wyniki działów produkcji, jakości czy logistyki o średnio 15%.”