„Efektywne IT w modelu hybrydowym” – Dane trzeba dziś doceniać! Chodzi nie tylko o ilość, ale przede wszystkim ich jakość, dlatego należy je odpowiednio przechowywać
Trudno jest odnaleźć się w dzisiejszym świecie. Nikt nie chce, by nasze życie było chaotyczne i nieprzewidywalne. Przeciwnie – marzymy, by było uporządkowane. W biznesie pomaga w tym między innymi teleinformatyka. Infrastruktura ICT powinna być tworzona według określonych zasad.
– Niezwykle pouczający jest przypadek Roberta FitzRoya – zaciekawił uczestników Maciej Kalisiak, członek zarządu firmy Hewlett Packard Enterprise, otwierając konferencję HPE GreenLake Day – Efektywne IT w modelu hybrydowym. – W 1861 roku, po katastrofie statku Royal Charter u południowych wybrzeży Anglii w wyniku niezwykle silnego sztormu, zaczął się on zastanawiać, w jaki sposób można by zapobiegać takim wydarzeniom. Stworzył wtedy podwaliny współczesnej metereologii. Wiele lat później Lewis F. Richardson dodał do tego podbudowę matematyczną. Oni mieli pomysły, ale nie mieli odpowiednich narzędzi. Mówię o tym, by pokazać, jak ważne jest prawidłowe określenie priorytetów, a następnie dążenie do ich wprowadzania w życie. Bo modernizacja IT również powinna się opierać na takich priorytetach. Żeby budować efektywne IT w modelu hybrydowym, trzeba brać pod uwagę kilka rzeczy.
Po pierwsze, wiele zjawisk dzieje się na brzegu sieci. Dlatego żadna organizacja nie powinna omijać tego zjawiska. W obecnych czasach nie można też zapominać o sztucznej inteligencji, co wiąże się z ogromną ilością danych. Muszą być one z sobą skorelowane. Poza tym, niezwykle ważny stał się dziś zrównoważony rozwój, a więc także zrównoważone IT. Stoją za tym określone wartości.
Do 2025 r. do sieci będzie podłączonych kilkadziesiąt miliardów urządzeń. Połowa danych (a ich liczba rośnie wykładniczo) ma być przetwarzana poza tradycyjnymi centrami danych. Każda organizacja musi mieć tego świadomość. Żeby zmienić dane w wiedzę, trzeba mieć odpowiednie narzędzia i kwalifikacje. Tymczasem według badania przeprowadzonego przez HPE, średni poziom dojrzałości organizacji w obszarze wykorzystywania dostępnych danych wynosi 2,6 (w skali do 5). Czyli znamy już powagę zjawiska, a jednak nie wyciągamy z tego właściwych wniosków. Podobnie jest ze sztuczną inteligencją.
W pewnym momencie świat zachłysnął się chmurą publiczną. Ale nie musi być ona jedynym rozwiązaniem. Świat jest hybrydowy. Przy czym, według firmy analitycznej IDC, około 70 procent danych jest przechowywanych on premise. Wynika to z różnych powodów, ale taka jest rzeczywistość. Jak mówi Krzysztof Chibowski z HPE, dane mogą być złotem albo błotem. Wymagają odpowiednich warunków. Wiążą się z tym duże koszty: sprzętu, oprogramowania i eksploatacji, w tym energii. Poza tym, trzeba umieć je wykorzystywać.
Jak się okazuje, zrównoważone IT oznacza konkretne, wymierne korzyści. Organizacje, które to rozumieją, w przyszłości mają szanse być liderami. To nie jest wyłącznie powód do chwały, lecz realne przewagi.
Świat pędzi naprzód, dlatego należy pamiętać o konieczności ciągłego rozwoju. Nie można wyłącznie utrzymywać dotychczasowego poziomu, nawet jeśli wszystko działa prawidłowo. Często kończy się to tym, że trudno już wprowadzać aktualizacje. Rosną wtedy koszty utrzymania i wsparcia. Jednocześnie spada elastyczność funkcjonowania organizacji.
IT musi być mierzalna.
Jeżeli optymalizujemy działania, chcemy wiedzieć, co naprawdę robimy. Trzeba mieć pełną wiedzę o strukturze, potrzebach i celach organizacji. Optymalizacja polega na tym, że płaci się tylko za to, co się wykorzystuje. I użytkuje to w jak najlepszy sposób.
– Należy też pamiętać o pełnym cyklu życia IT – zwrócił uwagę Maciej Kalisiak. – Niezwykle istotne jest, by patrzeć w przyszłość. Musimy wiedzieć, co się może stać za pięć lat, a nie tylko jutro. Jak sprawna będzie infrastruktura, co na pewno trzeba będzie zaktualizować. Nasza firma daje narzędzia wspierające omawiane priorytety IT. To HPE Green Lake Cloud Platform, czyli chmura działająca zgodnie z potrzebami klientów. To jest pełne rozwiązanie: sprzęt, oprogramowanie, usługi, doradztwo, a nawet zarządzanie. Oczywiście przy zapewnieniu pełnego bezpieczeństwa. Według IDC w ubiegłym roku byliśmy na piątym miejscu listy kluczowych dostawców usług chmurowych (zdaniem osób decyzyjnych w sprawach IT).
– Wartość rozwiązań teleinformatycznych zależy od danych – stwierdził Marcin Madey, prezes SUSE Polska. – Jeśli przyjrzymy się modelom biznesowym różnych przedsiębiorstw, gromadzą one jak najwięcej danych, by je analizować, przetwarzać i dostarczać odpowiednie rozwiązania. Kiedyś dane były przechowywane centralnie, natomiast obecnie coraz częściej odchodzi się od tego i zaczynamy je przetwarzać na krawędzi – po to, by szybciej mieć rezultat. Zwłaszcza gdy sztuczna inteligencja ma spełniać swoją rolę, musi mieć bardzo szybki dostęp do danych.
– Kilka lat temu miałem okazję być w szwajcarskim CERN-ie – zwierzył się Michał Dżoga, Country Manager Intel Polska. – Dowiedziałem się, że tamtejsi naukowcy obserwują liczne niesamowite zjawiska, ale nie zawsze potrafią je właściwie zinterpretować. Zastanawiam się, czy z danymi nie jest podobnie. Gdybyśmy prawo Moore’a zastosowali w astronautyce, na Marsa lecielibyśmy niecałe dwie sekundy. Rodzi się pytanie, czy ludzkość nadąża za możliwościami, jakie teoretycznie stwarza technika. Czy wiemy, które dane są najbardziej wartościowe i co możemy z nimi zrobić.
Obecnie dysponujemy ogromną ilością danych i mamy kłopot z ich wykorzystaniem. Można już powiedzieć, że jest ich za dużo. Potrzebujemy zatem systemów segregujących, czyli zarządzających nimi. Przydałyby się narzędzia integrujące.
Jak podkreślali prelegenci występujący na konferencji HPE, ta firma ma już takie systemy. A będą one coraz bardziej potrzebne. Jeżeli na przykład samochód autonomiczny generuje 20-30 terabajtów danych dziennie, nie może ich wszystkich przesyłać. Chodzi o przepustowość łączy, prędkość transmisji i tak dalej. Potrzebne są więc rozwiązania optymalizacyjne.
Gdzie przetwarzać dane?
Otwarte pozostaje pytanie: gdzie przetwarzać dane? W chmurze publicznej, prywatnej, hybrydowej? A może na krawędzi sieci? Nie ma jednoznacznej odpowiedzi. Wszystko zależy od konkretnej sytuacji. Naturalnie oddzielną kwestią są koszty. Z pewnością najlepsze są rozwiązania mieszane.
Zdaniem Marcina Madeya chmura publiczna może być swego rodzaju pułapką. Bardzo łatwo umieszcza się w niej dane. Znajduje się w niej wiele aplikacji. Ale warto zachować ostrożność, bowiem próba wyjścia okazuje się czasem skomplikowana i droga. Chmura publiczna miała być zwykłym medium, które będzie powszechne, łatwo dostępne i tanie. Jednak wyobraźmy sobie, co by było, gdyby parę lat temu ktoś wybrał tanią chmurę rosyjską. O tym trzeba zawsze pamiętać. Optymalnym rozwiązaniem jest więc chmura hybrydowa.
W 2021 r. na świecie wyprodukowano o około 3 miliony samochodów mniej niż w poprzednim, przypomniał Michał Dżoga. Przyczyną był między innymi brak układów scalonych. Wiele przedsiębiorstw miało problemy z produkcją. Nagle zorientowaliśmy się, że przerwanie łańcuchów dostaw ma wpływ na całą globalną gospodarkę. A przecież trzydzieści lat temu Stany Zjednoczone i Europa produkowały około 80 procent półprzewodników. Obecnie – niecałe 20 proc. Praktycznie cała reszta pochodzi z Azji. Jak odwrócić znów tę tendencję? Próbuje się to robić, ale nie jest to łatwe, tanie i musi potrwać. Pandemia COVID-19 uzmysłowiła nam, jak ważne są łańcuchy dostaw.
Intel był jednym z pierwszych producentów, którzy postanowili zrezygnować z krwawych minerałów. Dlatego niektórzy dostawcy wypadli z łańcucha dostaw firmy. A przecież zagadnienia zrównoważonego rozwoju prędzej czy później dotrą wszędzie – również do naszego kraju.
W ostatnich latach doszło do absurdu. Więcej energii zużywamy na chłodzenie serwerów niż na ich zasilanie. Z tego powodu firma Google zaczęła lokować swoje centra danych za kręgiem polarnym, bo jest tam zimno, a więc oszczędza się duże ilości energii. Można sobie wyobrazić wiele rozwiązań prowadzących do ograniczania niekorzystnego wpływu na środowisko.
Mnóstwo zagadnień pomaga rozwiązać między innymi sztuczna inteligencja. Może zrobić różne rzeczy dużo szybciej niż ludzie, szczególnie jeżeli zostanie dobrze zaprogramowana. Ogromnie ważna jest zatem kwestia: kto ją będzie uczył. Naukowcy, politycy? Czego i w jakim celu.
Tak czy inaczej, przed SI nie ma ucieczki. Będzie nam ona coraz bardziej potrzebna. Dlatego Intel niedługo zacznie organizować szkolenia w tej dziedzinie dla 11 tysięcy nauczycieli w naszym kraju. Bo o transformacji cyfrowej trzeba zacząć uczyć już dzieci.
Na marginesie, większość oprogramowania Intela powstaje obecnie w centrum badawczym w Gdańsku. Jest tam zatrudnionych około 4 tysięcy osób. Czyli przedsiębiorstwo postrzegane jako producent sprzętu jest ogromnym dostawcą oprogramowania. To również pokazuje proces zmian, jaki dokonuje się na świecie.
Do wątku SI powrócił Bartosz Pucek, prezes firmy Forward Operators AI Lab w niezwykle interesującym wystąpieniu „AI, AI, My Captain. Sztuczna inteligencja w praktyce i życiu”. Przypomniał między innymi, że polska diaspora jest jedną z największych grup tworzących rozwiązania SI na świecie. Na marginesie, mniej więcej jedna piąta pracowników dużej amerykańskiej firmy Open AI to nasi rodacy. Dziewięciu na dziesięciu nie ukończyło wyższej uczelni w Polsce.
Czy sztuczna inteligencja zmieni wszystko?
Tego jeszcze nie wiadomo. Na razie rozmaite rozwiązania są na różnym poziomie, niejednokrotnie przekraczającym już możliwości człowieka. Dlatego niektórzy mówią o kolejnej rewolucji. I wzrost produktywności ma być większy niż ten spowodowany wprowadzeniem elektryczności. Czy tak będzie rzeczywiście? Bartosz Pucek tego nie przesądza, bo nie zajmuje się futurystyką. Ale nawet jeśli ten wzrost będzie dużo mniejszy, nie można przechodzić obok tego zjawiska obojętnie.
Pewne jest jedno. Od kilku miesięcy cały świat pasjonuje się produktem zwanym ChatGPT, który jest kroplą w oceanie możliwości SI. Tymczasem prawdziwy potencjał tkwi w LLM (Large Language Models – duże modele językowe).
Jeśli mówimy: wlazł kotek…, to z prawdopodobieństwem 99,9 Polak dopowie: na płotek. Bo przecież całe życie jesteśmy karmieni danymi: w domu, szkole, pracy – wszędzie. Uczymy się na podstawie tych danych. Słowa, które wypowiadamy i gesty, które wykonujemy, występują na zasadzie prawdopodobieństwa, które powinno wystąpić. Tak funkcjonuje nasz mózg. Dlatego, wykorzystując rozmaite algorytmy, w ten sposób działa SI, w zamyśle – również w przedsiębiorstwach i instytucjach. Naturalnie pojawia się pewne niebezpieczeństwo, że sztuczna inteligencja stanie się lepsza niż prawdziwa.
Czy SI ma przyszłość?
Ona już jest wśród nas. Są firmy, w których 30-40 proc. kodu napisanego przez programistów (ludzi) powstaje we współpracy ze SI. Istnieją przedsiębiorstwa, w których 90 proc. pracowników korzysta ze wsparcia SI w zakresie produktywności.
Gdy zastanawiamy się nad LLM, trzeba pamiętać, że na razie mówimy głównie o jednym modelu SI, podkreślił Bartosz Pucek. A przecież może być ich wiele. Między innymi modele specjalistyczne, niszowe, które mogą mieć mnóstwo zastosowań.
Określony model może narysować kotka na plaży. Ale bardziej zaawansowany – pomóc przeprowadzić kampanię reklamową. Duże modele językowe są w stanie zamieniać tekst na tekst, tekst na obrazy (również wideo), tekst na dźwięki, a także odwrotnie.
Naturalnie początkowo występowały pewne problemy techniczne, na przykład modelka o trzech nogach. Ale szybko udało się je pokonać. Tempo rozwoju w tej dziedzinie jest bardzo duże. W Stanach Zjednoczonych sztuczna inteligencja staje się już niemal wszechobecna.
Większość (około dwóch trzecich) projektów wykorzystujących SI ma wzmacniać produktywność. Przychody dostawców takich rozwiązań rosną dużo szybciej niż firm tradycyjnych. Dlatego powszechne staje się przekonanie, że do nich należy przyszłość. Wielu ludzi nie wyobraża już sobie pracy bez SI.
Niszowe modele mogą być wykorzystywane w różnych sytuacjach, na przykład do wykrywania anomalii. Dlatego wprowadzane są w przedsiębiorstwach produkcyjnych. Między innymi potrafią wykrywać rysy na drażetkach. SI odnajduje też anomalie w kontraktach. We wszystkich przypadkach daje to oszczędności, niejednokrotnie w wysokości dziesiątek milionów euro rocznie.
Często zadaje się oczywiście pytanie: co się dzieje z ludźmi, którzy wcześniej obserwowali linie produkcyjne? Nie zostali wyrzuceni, tylko przeniesieni na inne stanowiska, bowiem ciągle brakuje wykwalifikowanych pracowników. W żadnym przedsiębiorstwie nie zetknąłem się ze zwolnieniami, przekonywał Bartosz Pucek. Przeciwnie, ludzie kontrolują sztuczną inteligencję.
SI sprawdza się w różnych działach przedsiębiorstw, pomagając również zarządzającym. Bo jeśli na posiedzeniu kierownictwa przedsiębiorstwa pojawia się pytanie, jaka była marża w czwartym kwartale 2016 roku, żaden człowiek tego nie pamięta. Oczywiście ta informacja jest do odnalezienia. Ale to musi potrwać. Natomiast SI odnajduje te dane (i pokazuje na wykresie) w ciągu kilku sekund.
SI zależy od jakości danych
Naturalnie trzeba pamiętać, że te rozwiązania nie są idealne same w sobie. Bo przecież SI zależy od jakości danych. Weźmy pod uwagę pewien model do wykrywania nowotworów skóry poprzez przetwarzanie obrazów. Statystycznie lekarz wykrywa około połowy przypadków. Nie jest to zatem wynik rewelacyjny. Tymczasem, co było ogromnym zaskoczeniem, SI – przy próbie w wysokości około 10 milionów – osiągnęła 3 proc. Zapanowała konsternacja. Jak się okazało, na niektórych zdjęciach skóry prezentowanych SI pojawiała się linijka. Algorytm nauczył się zatem, że przy obecności linijki jest większe prawdopodobieństwo wystąpienia nowotworu. Po usunięciu zdjęć z linijką wskaźnik wykrywania wzrósł do 75 proc. To znakomity dowód na to, że dane mają znaczenie.
– W jaki sposób powinny być przechowywane i przetwarzane dane? – zastanawiał się Marcin Wojtaszek, wiceprezes, CTO w firmie Euvic IT w dyskusji panelowej „Chmura publiczna – konieczność czy przyzwyczajenie?” – Zwłaszcza gdy wiemy, że zwykle tylko 20 proc. danych jest ustrukturyzowanych. A dla jakich organizacji lepsza jest jaka chmura? Kryteriów jest mnóstwo, a więc wybór nie jest łatwy. W każdym razie w biznesie jest już świadomość korzyści. Choć mamy jeszcze wiele do zrobienia. Ale na pewno warto to zrobić. Chmura w połączeniu ze sztuczną inteligencją ułatwiają i przyspieszają wszelkie procesy.
– Mamy wielu klientów, którzy wyboru dokonują mniej świadomie – dodał Marcin Dzienniak, członek zarządu, CTO w firmie OchK. – Dlatego czasem popełniają kosztowne błędy. Niestety, prawdopodobnie do chmury trafiają częściej nieustrukturyzowane dane. Natomiast zgadzam się, że sztuczna inteligencja w połączeniu z chmurą dają bardzo dobre efekty. Widać to na przykład w przemyśle. Zastosowanie Visual Inspection (analizy obrazu) na liniach produkcyjnych pozwala na rezygnację z wolnej i często mylnej obserwacji produktów przez ludzi.
– Według danych Eurostatu, tylko około 30 proc. polskich firm deklaruje próby wprowadzenia technologii chmurowych – przypomniał Mariusz Chudy, CEE Cloud & Digital Leader w firmie doradczej PwC. – Zgodnie z naszymi badaniami jest trochę lepiej. Wskaźnik ten przekracza 35 proc. Przy czym zwykle firmy mają jakieś strategie transformacji cyfrowej, a więc trend jest pozytywny. Myślę, że w najbliższej przyszłości będziemy świadkami migracji do chmury hybrydowej. A za 5-10 lat zapomnimy o laptopach i mailach. Nasze stanowiska pracy zmienią się nie do poznania.