Blisko trzy czwarte Polaków uważa, że GenAI może pomóc firmom ulepszyć produkty i usługi

Rynek generatywnej AI w Europie rozwija się w szybkim tempie, jednak aby w pełni wykorzystać nowe możliwości, konieczne jest zbudowanie zaufania do tej technologii. Jak wynika z raportu firmy doradczej Deloitte, choć 68 proc. respondentów wierzy, że GenAI poprawi doświadczenia związane z wykonywaną pracą, zaledwie 18 proc. stosuje ją w celach zawodowych. Jednocześnie tylko połowa badanych ufa, że zastosowanie AI będzie właściwie uregulowane przez prawodawcę i odpowiedzialnie wykorzystywane w biznesie. Kluczowe dla zbudowania tego zaufania są kwestie takie jak bezpieczeństwo danych, rola człowieka w procesie, przejrzystość działania algorytmów oraz pewność otrzymywanych wyników.

Najnowszy raport firmy doradczej Deloitte „Trust in AI. Polska Perspektywa 2024” analizuje opinie 30 tys. konsumentów i pracowników z 11 krajów, w tym 2914 respondentów z Polski. Badanie pozwala spojrzeć na poziom zaufania do generatywnej sztucznej inteligencji (GenAI) i gotowość do korzystania z jej narzędzi w codziennym życiu i pracy. Polska perspektywa stanowi istotny element analizy, ukazując lokalne potrzeby i wyzwania na tle średniej dla Europy.

Postawy wobec GenAI w Polsce i Europie

Jak wynika z badania, 56 proc. respondentów w Polsce korzysta z generatywnej AI w celach prywatnych, 29 proc. z myślą o edukacji, a niemal co piąty (18 proc.) stosuje ją w pracy. Szersze udostępnienie narzędzi AI pracownikom może znacząco zwiększyć efektywność i innowacyjność polskich przedsiębiorstw, otwierając przed nimi nowe możliwości rozwoju. Już teraz 72 proc. badanych Polaków jest zdania, że GenAI pomoże firmom ulepszyć produkty i usługi, a 68 proc. ankietowanych uważa, że poprawi doświadczenia związane z wykonywaną pracą np. dzięki automatyzacji powtarzalnych zadań. Natomiast w Europie poziom wykorzystania sztucznej inteligencji w celach zawodowych jest nieznacznie wyższy niż w naszym kraju. Po nowe rozwiązania sięga co czwarty pracownik, a ponad 60 proc. Europejczyków korzystających z GenAI w celach zawodowych wskazuje, że firma zachęca ich do stosowania tego typu rozwiązań w pracy lub tego nie zabrania.

Z jakich narzędzi korzystamy?

Jak wynika z danych dotyczących całej Europy, połowa osób stosujących AI zawodowo korzysta z bezpłatnych, ogólnodostępnych narzędzi, a jedna trzecia otrzymuje dostęp do rozwiązań opłacanych przez pracodawcę. Co więcej, blisko jedna czwarta zatrudnionych sięga po narzędzia dostępne na rynku, za które płaci z własnej kieszeni. Z kolei zaledwie jedna piąta respondentów używa rozwiązań opracowanych przez organizację, w której pracują lub zamówionych u zewnętrznych dostawców.

Podobną sytuację obserwujemy na polskim rynku, co z jednej strony bardzo wyraźnie pokazuje potrzebę uregulowania stosowania sztucznej inteligencji w firmach, a często wręcz strategicznego podejścia, a z drugiej – rozwijania własnych narzędzi dopasowanych do procesów biznesowych danej organizacji. Przejście z fazy eksperymentów do pełnego wdrożenia, wymaga doświadczenia, kompetencji i zaangażowania zespołu projektowego złożonego ze specjalistów z zakresu procesów biznesowych, technologii oraz prawa. W Polsce wiele przedsiębiorstw testuje rozwiązania AI, a coraz więcej organizacji przechodzi do wdrożeń na większą skalę. – zaznaczył Amadeusz Andrzejewski, partner, lider zespołu Data & AI w Polsce, Deloitte.

 

Zdaniem ankietowanych Europejczyków ponad połowa użytkowników korzysta z narzędzi bazujących na generatywnej AI bez zgody pracodawcy, co może oznaczać wykorzystywanie nieautoryzowanych rozwiązań. Według ankietowanych, dzieje się tak głównie z powodu braku dostępnych w organizacjach narzędzi lub niezadowolenia z ich funkcjonalności. Co więcej, 23 proc. użytkowników odpowiedziało, że w ich organizacjach nie ma polityki dotyczącej GenAI lub respondenci o niej nie wiedzą. Może się to wiązać z potencjalnym ryzykiem udostępnienia danych klientów, ze względu na to, że nieautoryzowane narzędzia mogą nie spełniać standardów bezpieczeństwa i prywatności danych.

Budowa zaufania kluczem do sukcesu

Postawy polskich respondentów wobec GenAI wskazują na zmienny poziom zaufania w zależności od stopnia skomplikowania danego zastosowania sztucznej inteligencji, co jest zgodne z trendami obserwowanymi na innych rynkach. Użytkownicy bardziej ufają wynikom generowanym za jej pomocą w sytuacjach obarczonych mniejszym ryzykiem, jak np. podsumowanie artykułów prasowych (67 proc.), a mniej w przypadku bardziej skomplikowanych zadań, jak rekomendacje produktów finansowych (60 proc.) czy wsparcie w procesie diagnozy medycznej (43 proc.).

Uzyskane wyniki pokazują pewną lukę w zaufaniu do generatywnej AI. Użytkownicy wydają się wykazywać większą otwartość na korzystanie z takich rozwiązań, gdy sami je stosują lub gdy dotyczy to zastosowań, które uznają za mniej ryzykowne. Uwydatnia to potrzebę priorytetowego traktowania przez firmy, organizacje i instytucje publiczne kwestii transparentności w zakresie wykorzystania AI, zapewnienia użytkownikom odpowiednich narzędzi i szkoleń oraz aktywnego podejścia do kwestii prywatności danych. – podkreślił Jan Michalski, partner, DCE GenAI Market Activation Leader w Deloitte.

 

Zbudowanie zaufania do generatywnej AI pozostaje kluczowe dla dalszego upowszechnienia tej technologii. Wśród czynników istotnych w procesie budowania zaufania do GenAI polscy respondenci wskazują na bezpieczeństwo danych (68 proc.), zachowanie wpływu człowieka w procesie (62 proc.) czy pewność co do otrzymywanych wyników (62 proc.) i rozumienie, jak działają algorytmy (60 proc.). Choć użytkownicy widzą potencjał w stosowaniu AI, tylko połowa badanych w Polsce wierzy, że technologia ta będzie etycznie wykorzystywana w biznesie. Podobny odsetek respondentów (46 proc.) ufa, że państwo skutecznie ureguluje te kwestie. Ponadto ponad połowa użytkowników AI (53 proc.) uważa, że technologia ta byłaby wykorzystywana częściej, gdyby istniały jasne regulacje prawne.

Nowe regulacje wprowadzane na poziomie unijnym mogą odegrać kluczową rolę w zbudowaniu odpowiednich ram prawnych i zaufania, a w konsekwencji adopcji generatywnej AI. Biorąc pod uwagę szybki rozwój tej technologii oraz to, że część postanowień AI ACT zacznie obowiązywać już od 2 lutego 2025 r., firmy już teraz powinny przyjąć proaktywne podejście. Powinno ono uwzględniać m.in. klasyfikację wykorzystywanych systemów AI oraz dokładne zidentyfikowanie istniejących dokumentów, procesów i odpowiedzialności w tym obszarze. Ponadto, dostawcy systemów AI i przedsiębiorstwa je stosujące muszą zapewnić odpowiednie kompetencje zespołów korzystających ze sztucznej inteligencji. Oznacza to nie tylko potrzebę zrozumienia kwestii technicznych na etapie rozwoju systemów AI, ale także wymaga odpowiednich kompetencji związanych z wykorzystywaniem ich w organizacji – dodał Michał Mostowik, adwokat specjalizujący się w zakresie regulacji AI, Deloitte Legal.

 

Polska jednym z trzech najbardziej zagrożonych państw w Europie, wynika z najnowszego raportu Microsoft Digital Defense