Skradzione dane uwierzytelniające są przyczyną ponad jednej czwartej przypadków naruszenia bezpieczeństwa firmy. Dlatego, jak przewidują eksperci Deloitte, w ciągu najbliższych dwóch lat zmieni się rozumienie bezpieczeństwa w sieci.
O wyborze najnowszych trendów technologicznych decydowały informacje uzyskane od zarządów firm, które obsługujemy, dotyczące bieżących i przyszłych priorytetów, prognozy i analizy, sporządzone przez naukowców, i w końcu plany oraz priorytety inwestycyjne wiodących startupów, funduszy venture capital i dostawców technologii. Zebrane przez ekspertów Deloitte informacje pokazują, w jak nieoczekiwany sposób kryzys COVID-19 wymusił zmiany. Coraz więcej organizacji we wszystkich sektorach przyspiesza proces transformacji cyfrowej, nie tylko po to, by zwiększyć szybkość i efektywność swoich działań, ale także po to, by reagować na gwałtowne wahania popytu i oczekiwań klientów – mówi Daniel Martyniuk, partner, lider zespołu strategii i transformacji IT w Deloitte.
Od chałupniczych metod do precyzji inżyniera
Ponieważ uczenie maszynowe (ML – machine learning) i sztuczna inteligencja (AI – artificial intelligence) stają się kluczowymi czynnikami wpływającymi na wydajność organizacji, kierujący przedsiębiorstwami zaczynają zdawać sobie sprawę z konieczności przyspieszenia wdrażania tych rozwiązań. Zazwyczaj modele te są tworzone i wdrażane przy użyciu ręcznych, niestandardowych, trudnych do skalowania procesów, które uniemożliwiają eksperymentowanie i utrudniają współpracę zespołów produktowych z działem IT i specjalistami od analizy danych. Inaczej mówiąc, infrastruktura przedsiębiorstwa nie jest zaprojektowana w sposób umożliwiający szybkie, spójne i sprawne tworzenie modeli uczenia maszynowego.
Rozpowszechnienie metodologii MLOps, czyli Machine Learning Operations, jest ważnym tematem najnowszego raportu „Tech Trends”. Z naszych obserwacji wynika, że firmy coraz częściej będą przechodziły z „chałupniczego” wdrażania rozwiązań sztucznej inteligencji i uczenia maszynowego do metodyki zautomatyzowanej i usystematyzowanej, która pozwoli zespołom IT, data science i działom operacyjnym efektywniej wdrażać i monitorować takie rozwiązania. To zapewni organizacjom możliwość szybkiej reakcji i podejmowania trafnych decyzji– Agnieszka Zielińska, partner w dziale Doradztwa Finansowego, Deloitte.
Aby zintegrować AI i ML ze wszystkimi procesami i systemami w organizacji, firmy muszą być w stanie wdrażać je w sposób ustandaryzowany i na dużą skalę. Dwadzieścia lat temu, podobne wyzwania doprowadziły do narodzin DevOps – metody tworzenia oprogramowania opartej na komunikacji i współpracy deweloperów ze specjalistami od eksploatacji. Poprzez standaryzację i automatyzację tworzenia, wdrażania i zarządzania aplikacjami, DevOps zmienił sposób, w jaki wiele zespołów IT tworzy i wdraża oprogramowanie, umożliwiając im poprawę jego wydajności i jakości.
Rewolucja w danych
Okazuje się, że do podejmowania decyzji w oparciu o sztuczną inteligencję, tradycyjne sposoby organizowania danych nie wystarczą.
Coraz więcej firm, które w sposób pionierski wykorzystują sztuczną inteligencję zauważa nieprzystawalność struktur i modeli danych do nowych technologii nastawionych na podejmowanie decyzji przez maszyny. Do tej pory te struktury skrojone były pod typowo ludzki sposób myślenia. Spodziewamy się, że coraz więcej przedsiębiorstw zacznie aktywnie mierzyć się z tym wyzwaniem– mówi Aneta Olędzka, manager w zespole analityki i kognitywistyki, Deloitte.
Jednym z trendów, jakie będziemy obserwować w ciągu najbliższych dwóch lat, jest opracowanie nowego podejścia do zarządzania danymi pod kątem wykorzystania ich przez algorytmy uczenia maszynowego, a nie przez człowieka. Ludzie mają tendencję do patrzenia na zagregowane dane charakteryzujące się dwoma lub trzema głównymi czynnikami. W obliczu bardziej złożonych danych wielu ma trudności z przetworzeniem przedstawionych informacji i podjęciem decyzji. Modele uczenia maszynowego potrafią wydobyć niskie poziomy istotności statystycznej z ogromnych ilości ustrukturyzowanych i nieustrukturyzowanych danych.
Zero zaufania, czyli o bezpieczeństwie inaczej
Konwencjonalne modele cyberbezpieczeństwa okazują się niewystarczające, by sprostać wciąż zmieniającym się cyberzagrożeniom, zwłaszcza w obliczu nieustannie ewoluujących modeli biznesowych i dynamicznie zmieniającej się siły roboczej. Wraz z rosnącą liczbą systemów opartych na chmurze, pracowników zdalnych i wielości urządzeń podłączonych do sieci firmy, stale przesuwają się granice bezpieczeństwa. Przewidywany rozwój inteligentnych urządzeń, 5G, edge computing i sztucznej inteligencji zapowiada dodatkowe powiększenie powierzchni potencjalnego ataku.
To nie jest kolejny odcinek „Z Archiwum X”. „Zero trust” jest filozofią, która powoduje zmianę podejścia do rozumienia tego, czym jest bezpieczeństwo sieci. Wiemy, że większość sieci jest trudna do złamania z zewnątrz, natomiast od środka dostęp do większości zasobów jest praktycznie nieograniczony. W ramach najnowszego raportu „Tech Trends” zwracamy uwagę na to, że istnieje konkretny zestaw zarówno zabezpieczeń, jak i czynności czy koncepcji, które należałoby wdrożyć, aby w odpowiedni sposób zabezpieczyć organizację– mówi Adam Rafajeński, dyrektor w zespole cyberbezpieczeństwa, Deloitte.
Zabezpieczenia zewnętrzne kładą nacisk na uwiarygodnianie użytkowników i urządzeń podłączonych do sieci organizacji. Dlatego kradzież danych uwierzytelniających jest przyczyną ponad jednej czwartej przypadków naruszenia bezpieczeństwa. Tymczasem właściwie zaprojektowana architektura „zero zaufania” jest podstawą skutecznej kontroli i zarządzania dostępami użytkowników, zmniejszając przy tym koszty operacyjne i wspierając skalowanie do dziesiątek tysięcy użytkowników. Podobnie – wprowadzanie pracowników, kontrahentów, dostawców usług w chmurze i innych dostawców może stać się bardziej wydajne, elastyczne i bezpieczne.
Starannie zaprojektowane architektury „zero zaufania” mogą współdziałać z innymi zautomatyzowanymi praktykami IT, takimi jak DevSecOps i NoOps. Kluczowym elementem tej filozofii jest mikrosegmentacja sieci, danych, aplikacji, obciążeń i innych zasobów na indywidualne, jednostki w celu ograniczenia naruszeń i zapewnienia kontroli bezpieczeństwa na najniższym możliwym poziomie. Ograniczając dostęp w oparciu o zasadę najmniejszych uprawnień, minimalna liczba użytkowników ma dostęp do danych i aplikacji.
https://itreseller.pl/itrnew13-forum-gospodarcze-time/