Czym właściwie jest GenAI, w jaki sposób czyni świat lepszym miejscem i w czym leży jej wartość biznesowa zdaniem eksperta F5
Organizacje, które zastanawiają się nad tym, czy i kiedy wdrożyć generatywną sztuczną inteligencję do swoich działań operacyjnych (AIOps), stają przed licznymi wyzwaniami. GenAI znajduje dziś zastosowanie niemal wszędzie, co skłania do refleksji: czym właściwie jest, w jaki sposób czyni świat lepszym miejscem i w czym leży jej wartość biznesowa?
Poniższa analiza opiera się na trendach branżowych oraz doświadczeniach z wykorzystaniem Gen AI w ciągu ostatniego roku. Bartłomiej Anszperger, Solution Engineering Manager w firmie F5, przedstawia pięć wniosków, które mogą pomóc organizacjom zrozumieć wpływ GenAI na praktyki związane z danymi operacyjnymi.
Liczę, że poniższe wnioski pomogą organizacjom m.in. w lepszym dostosowaniu harmonogramów wdrażania technologii GenAI do budżetów, obecnych praktyk oraz kultury organizacyjnej – komentuje Bartłomiej Anszperger.
1. Modele GenAI świetnie radzą sobie z częściowo ustrukturyzowanymi i nieustrukturyzowanymi danymi
Dane operacyjne to mieszanka częściowo ustrukturyzowanych danych (obiektów) i nieustrukturyzowanych zestawów danych. Duże modele językowe (LLM) są dość elastyczne i skuteczne w pracy z tak różnorodnymi formatami danych, co sprawia, że są idealną technologią do analizy operacyjnych zestawów danych.
Organizacje mogą przeprowadzać szereg eksperymentów i ocen we własnym zakresie, aby zweryfikować skuteczność, łatwość użytkowania i koszty różnych rozwiązań opartych na GenAI. Wykorzystanie wnioskowania LLM do wykrywania interesujących wzorców danych pozwala nie tylko zredukować liczbę fałszywych alarmów, ale także usprawnić działania zespołów analizujących dane z wydajnością maszyn.
2. Organizacje nie muszą budować własnych modeli
Firmy, które koncentrują się na rozumieniu, jakie techniki są wykorzystywane w konkretnych modelach do realizacji określonych zadań, nie muszą tworzyć własnych modeli od podstaw. Przykładem jest rozpoznawanie nazwanych jednostek (NER – Named Entity Recognition), jedno z narzędzi przetwarzania języka naturalnego (NLP), który skutecznie identyfikuje najważniejsze elementy w danych częściowo ustrukturyzowanych. NER może obejmować na przykład kategorie, takie jak dni tygodnia czy też ich numeryczny opis, np. liczby całkowite większe od 1 i mniejsze niż 7.
Zastosowanie takich technik zwiększa precyzję podczas wnioskowania w porównaniu z technikami dopasowywania wzorców opartymi na regułach, które nie wykorzystują GenAI. W miarę postępu badań i rozwoju praktycznego zastosowania takich technik jak NER, zespoły operacyjne mogą skupić się na korzystaniu z metod, które już okazały się skuteczne, zamiast angażować się w czasochłonne i kosztowne budowanie własnych modeli.
3. Grawitacja danych to rzeczywistość
Grawitacja danych to zjawisko, która wpływa na decyzje dotyczące umiejscowienia obliczeń odpowiednio bliżej miejsca tworzenia danych lub przemieszczania danych w kierunku już działających zasobów obliczeniowych. Im większy wolumen danych, tym silniejsza jest ich „grawitacja”, co skutkuje potrzebą zwiększania mocy obliczeniowej w ich pobliżu. Podczas trenowania modeli (tworzenia i dostrajania) dane są agregowane i przemieszczane bliżej zasobów obliczeniowych. W przypadku wnioskowania (wykorzystywania modeli) model przenosi się bliżej miejsca, gdzie generowane jest zapytanie.
Jeśli model jest używany lokalnie (poprzez przeniesienie jego kopii do lokalnej infrastruktury zamiast odwoływania się do API wystawianego przez zewnętrznego dostawcę) logicznym rozwiązaniem jest umieszczenie go bliżej zapytania oraz ewentualnych dodatkowych prywatnych zbiorów danych wektorowych wykorzystywanych zapytaniu. Z kolei w przypadku modeli hostowanych przez zewnętrznych dostawców API, operacje wnioskowania i sam model pozostają w tej samej lokalizacji. W takich sytuacjach dane związane z wnioskowaniem i wektory prywatnych danych można przesunąć do lokalizacji „bliskiej sieciowo” poprzez zastosowanie współdzielonych centrów danych z połączeniami kolokacyjnymi lub dostosowanie lokalizacji hostingu do lokalizacji dostawcy modelu, o ile jest to możliwe.
Zrozumienie mechanizmów, które łączą dane i zasoby obliczeniowe, oraz tych, które je rozdzielają, pozwala podejmować świadome decyzje. Kluczowe jest znalezienie właściwej równowagi między kosztami a wydajnością.
4. Nie ignoruj silosów danych – zmierz się z nimi
W erze GenAI jeszcze większego znaczenia nabiera eliminacja silosów danych, aby uprościć i przyspieszyć analizę danych operacyjnych. Jednak wydaje się, że w najbliższej przyszłości silosy danych nie tylko będą nadal istnieć, ale mogą wręcz się mnożyć.
Należy postawić istotne pytanie: jak radzić sobie z silosami danych i jakie technologie wybrać? W kontekście dostępu do danych przechowywanych w wielu lokalizacjach istnieją dwie strategie: kopiowanie i przenoszenie danych lub wdrożenie logicznej warstwy danych, która wykorzystuje zapytania federacyjne bez konieczności przemieszczania danych. Niezależnie od wybranej opcji, kluczowe jest rozpoznanie istniejących źródeł danych strumieniowych oraz ocena przypadków użycia operacyjnego pod kątem ograniczeń czasowych i świeżości danych. To z kolei pozwala na lepszy dobór niezbędnych technologii, takich jak silniki strumieniowe, silniki zapytań, formaty danych czy katalogi – precyzuje Bartłomiej Anszperger.
Wybór odpowiednich technologii daje zespołom danych możliwość stosowania najefektywniejszych i najłatwiejszych w użyciu rozwiązań, jednocześnie zachowując równowagę między wydajnością a kosztami. Idealnie, praktyki zarządzania danymi w organizacji dojrzewają z czasem, zapewniając elastyczność w wyborze najlepiej dopasowanych technologii na każdym etapie rozwoju organizacji.
5. Automatyzacja jest przyjacielem – nie obawiaj się jej
Wdrażając rozwiązania automatyzacyjne, organizacje zyskują skalowalność dzięki przekładaniu wiedzy ekspertów z zakresu ochrony danych i bezpieczeństwa operacyjnego na powtarzalne procesy zarządzane przez AI. Automatyzacja nie tylko upraszcza złożone zadania, ale pozwala skoncentrować się na dodawaniu wartości poprzez rozwijanie inteligencji operacyjnej. To ona sprawia, że polityki zarządzania danymi są bardziej precyzyjne – definiując, kto, jak długo i w jakim celu może korzystać z konkretnych danych, jednocześnie monitorując ich lokalizację oraz sposób dystrybucji. Dzięki temu specjaliści zyskują więcej czasu na strategiczne działania, takie jak planowanie, ocena nowych technologii czy doskonalenie polityk dostępu do danych w porozumieniu z biznesem.
Dojrzała automatyzacja operacyjna (AIOps) opiera się na jest szybkości, skalowalności i inteligentnym zarządzaniu, co prowadzi do szybszego podejmowania decyzji oraz optymalnego wykorzystania zasobów ludzkich. GenAI otwiera nowe możliwości, które dotychczas były poza zasięgiem technologii.
Wierzę, że powyższe wnioski stanowią cenne wskazówki dla zespołów zajmujących się operacjami IT, bezpieczeństwem oraz ochroną danych, które planują wdrażanie GenAI do swoich praktyk AIOps. Elementy takie jak modele AI, lokalizacja zasobów obliczeniowych względem danych automatyzacja oraz efektywne zarządzanie danymi, tworzą fundament nowoczesnych operacji technologicznych. W tak bogatym środowisku edukacyjnym organizacje mogą budować kulturę i praktyki operacji technologicznych, które sprostają potrzebom zarówno obecnego, jak i przyszłych pokoleń – podsumowuje Anszperger.