Polska traci miliardy na fikcyjnych receptach. Czy AI zatrzyma falę nadużyć w systemie zdrowia?

Wyłudzenia na receptach, zawyżone refundacje i fikcyjne świadczenia coraz mocniej obciążają polski system ochrony zdrowia. Według szacunków, nawet 15% wartości sprzedaży leków na receptę może mieć związek z nadużyciami, co oznacza potencjalne straty sięgające 4,4 mld zł rocznie. W odpowiedzi na skalę problemu instytucje zdrowotne i ubezpieczyciele coraz częściej sięgają po sztuczną inteligencję i zaawansowaną analitykę danych.
Sztuczna inteligencja w walce z fikcyjnymi receptami
Dane Centrum e-Zdrowia pokazują, że w 2024 roku sprzedaż leków na receptę osiągnęła 29,6 mld zł, a liczba wystawionych e-recept przekroczyła 513 mln. W tak dużym i złożonym systemie tradycyjne, ręczne mechanizmy kontroli przestają wystarczać. Przykładem jest sprawa z lipca 2025 roku, gdy policja rozbiła grupę, która w ciągu trzech lat wystawiła 40 tysięcy fikcyjnych recept, generując straty dla publicznego budżetu na poziomie 82 mln zł.
Eksperci SAS zwracają uwagę, że dane receptowe należą do najtrudniejszych do analizy pod kątem nadużyć.
„Recepty to wyjątkowo trudne dane do badania pod kątem nadużyć. Każdy pacjent jest inny, objawy mogą się różnić, dawka może być inna dla różnych płci czy grup wiekowych. Choć istnieją zalecane kuracje i odpowiednie regulacje dotyczące maksymalnych ilości, trzeba pamiętać, że każda recepta to inna historia. To daje wielkie pole do nadużyć. A trzeba przyznać, przestępcy też są sprytni i ich metody ciągle ewoluują” – mówi Marek Frysz, Senior Account Executive w SAS Polska.
Nowe systemy oparte na AI analizują dane z wielu źródeł recept, refundacji, historii leczenia, rozliczeń aptek i lekarzy. Potrafią wykrywać nietypowe schematy, na przykład zbyt częste wystawianie recept na tę samą osobę, brak spójności między diagnozą a wypisanymi lekami czy nadmierną liczbę świadczeń zgłaszanych do refundacji.
Globalne przykłady oszczędności dzięki analityce
Rozwiązania SAS są już wykorzystywane przez instytucje ochrony zdrowia w różnych krajach. W Stanach Zjednoczonych firma Prime Therapeutics wdrożyła system SAS Detection and Investigation for Health Care, który łączy dane farmaceutyczne, kliniczne i finansowe w jeden ekosystem analityczny. W ciągu 18 miesięcy pozwoliło to zaoszczędzić 355 mln USD dzięki wykryciu zorganizowanych schematów wyłudzeń z udziałem lekarzy, aptek i fałszywych podmiotów medycznych.
Podobnie holenderscy ubezpieczyciele DSW i CZ wykorzystali narzędzia analityczne do monitorowania rozliczeń w trybie przed wypłatą środków. Mechanizmy te pozwalają wychwycić podejrzane operacje, zanim pieniądze opuszczą system, ograniczając nieuzasadnione refundacje i skracając czas reakcji na potencjalne nadużycia.
Zdaniem przedstawicieli SAS kluczowe jest przejście od działania wyłącznie po szkodzie do podejścia predykcyjnego.
„AI nie tylko pomaga reagować na nadużycia, ale uczy się ich wzorców i zapobiega ich powstawaniu. To narzędzie, które zmienia logikę całego systemu z reaktywnego w predykcyjny. Dzięki uczeniu maszynowemu jesteśmy w stanie identyfikować subtelne zależności pomiędzy lekarzami, aptekami i pacjentami, które dla człowieka byłyby niewidoczne. Sztuczna inteligencja nie działa na zasadzie przypadkowego alarmu potrafi rozpoznać kontekst, przewidzieć ryzyko i wskazać obszary wymagające interwencji zanim dojdzie do nieprawidłowości” – podkreśla Marta Prus Wójciuk, szefowa obszaru Fraud Practice w SAS Central Europe.
Generatywna AI i konieczność nadzoru
Coraz większe znaczenie zyskuje także generatywna sztuczna inteligencja, która może uzupełniać tradycyjne systemy detekcji nadużyć, na przykład poprzez tworzenie podpowiedzi dla analityków, streszczanie spraw czy wspieranie pracy zespołów dochodzeniowych. Badania SAS wskazują, że 87% organizacji ochrony zdrowia planuje wdrożyć rozwiązania oparte na GenAI, a 97% ma już na ten cel wyodrębniony budżet. Jednocześnie sektor zdrowotny zgłasza poważne obawy dotyczące tej technologii, przede wszystkim w obszarze bezpieczeństwa danych, na co wskazuje 77% badanych, oraz ochrony prywatności, na co zwraca uwagę 76% respondentów.
W tym kontekście rośnie znaczenie koncepcji AI governance, czyli świadomego nadzoru nad tym, jak algorytmy są trenowane, w jaki sposób podejmują decyzje i jaka jest odpowiedzialność za ich skutki.
„AI governance to przede wszystkim świadomy nadzór nad tym, jak algorytm analizuje dane i jakie mają one konsekwencje dla pacjentów. Chodzi o zrozumienie, które decyzje mogą być zautomatyzowane i kto ostatecznie odpowiada za ich skutki. W ochronie zdrowia, gdzie decyzje AI mogą realnie wpływać na życie pacjentów, takie podejście ma kluczowe znaczenie od sposobu trenowania modeli po sposób, w jaki lekarz interpretuje ich wyniki. Szczególnie ważne jest zapewnienie transparentności i wytłumaczalności decyzji algorytmów” – dodaje Marta Prus Wójciuk.
Przykłady z zagranicy pokazują, że odpowiednio wdrożona analityka danych i sztuczna inteligencja pozwalają ograniczyć straty liczone w setkach milionów dolarów i jednocześnie wzmocnić zaufanie pacjentów do systemu. W warunkach rosnących kosztów opieki zdrowotnej, starzenia się społeczeństwa i presji na budżety publiczne cyfrowe narzędzia do walki z nadużyciami stają się jednym z kluczowych elementów nowoczesnego systemu ochrony zdrowia.





















