Dostosuj preferencje dotyczące zgody

Używamy plików cookie, aby pomóc użytkownikom w sprawnej nawigacji i wykonywaniu określonych funkcji. Szczegółowe informacje na temat wszystkich plików cookie odpowiadających poszczególnym kategoriom zgody znajdują się poniżej.

Pliki cookie sklasyfikowane jako „niezbędne” są przechowywane w przeglądarce użytkownika, ponieważ są niezbędne do włączenia podstawowych funkcji witryny.... 

Zawsze aktywne

Niezbędne pliki cookie mają kluczowe znaczenie dla podstawowych funkcji witryny i witryna nie będzie działać w zamierzony sposób bez nich.Te pliki cookie nie przechowują żadnych danych umożliwiających identyfikację osoby.

Brak plików cookie do wyświetlenia.

Funkcjonalne pliki cookie pomagają wykonywać pewne funkcje, takie jak udostępnianie zawartości witryny na platformach mediów społecznościowych, zbieranie informacji zwrotnych i inne funkcje stron trzecich.

Brak plików cookie do wyświetlenia.

Analityczne pliki cookie służą do zrozumienia, w jaki sposób użytkownicy wchodzą w interakcję z witryną. Te pliki cookie pomagają dostarczać informacje o metrykach liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Brak plików cookie do wyświetlenia.

Wydajnościowe pliki cookie służą do zrozumienia i analizy kluczowych wskaźników wydajności witryny, co pomaga zapewnić lepsze wrażenia użytkownika dla odwiedzających.

Brak plików cookie do wyświetlenia.

Reklamowe pliki cookie służą do dostarczania użytkownikom spersonalizowanych reklam w oparciu o strony, które odwiedzili wcześniej, oraz do analizowania skuteczności kampanii reklamowej.

Brak plików cookie do wyświetlenia.

Chatbot zamiast psychologa? AI może pogłębiać problemy, a nie je rozwiązywać

Nowe odkrycia naukowe wskazują, że sztuczna inteligencja okazuje się niezbyt odpowiednia do prowadzenia sesji terapeutycznych. Czatboty nie potrafią wykryć stanów kryzysowych, pogłębiają społeczne uprzedzenia i mogą przekazywać ryzykowne zalecenia, szczególnie w przypadku ciężkich schorzeń psychicznych.

Coraz częściej ludzie zwracają się ku chatbotom opartym na AI w poszukiwaniu pomocy psychologicznej, głównie wtedy, gdy dotarcie do specjalisty jest problematyczne finansowo lub logistycznie. Najświeższe analizy przeprowadzone przez uczonych z Stanford University ujawniają jednak, że tego typu narzędzia są nie tylko mało efektywne, ale też potencjalnie szkodliwe. Podczas testów popularne systemy wykorzystujące modele GPT-4o i Llama okazały się niezdolne do identyfikacji alarmujących sygnałów, takich jak skłonności suicydalne czy objawy psychotyczne, a niekiedy nawet wzmacniały destrukcyjne myślenie użytkowników.

Sztucznej inteligencji brakuje zdolności do analizy szerszego kontekstu sytuacyjnego, nie może obserwować komunikacji niewerbalnej ani reagować na delikatne wskazówki, które doświadczony terapeuta bez trudu wyłapuje. W przeprowadzonych eksperymentach boty często prezentowały stygmatyzujące nastawienie wobec osób zmagających się z depresją, schizofrenią czy problemami z substancjami psychoaktywnymi. Zdarzały się przypadki, gdy zamiast oferować konstruktywne wsparcie, systemy konwersacyjne potwierdzały błędne przekonania lub przekazywały treści mogące zaszkodzić rozmówcy. Badacze podkreślają, że nawet najbardziej zaawansowane modele AI pozostają daleko w tyle za możliwościami człowieka – licencjonowani psychoterapeuci reagowali właściwie w 93% sytuacji, podczas gdy algorytmy osiągały maksymalnie 60% skuteczności.

 

 

Dodatkowym problemem pozostaje brak odpowiednich przepisów i kontroli nad zastosowaniem AI w dziedzinie zdrowia psychicznego. Chatboty nie muszą spełniać tych samych rygorystycznych wymogów etycznych co ludzie, a ich twórcy często unikają ponoszenia konsekwencji za błędne wskazówki. W Ameryce już teraz toczą się postępowania sądowe przeciwko platformom, których boty miały związek z tragicznymi zdarzeniami dotykającymi użytkowników. Specjaliści alarmują, że poleganie na AI w charakterze terapeuty może opóźnić poszukiwanie rzeczywistej pomocy medycznej, a także pogłębić społeczną izolację i uzależnienie od rozwiązań technologicznych.

Owszem, AI może okazać się przydatna dla terapeutów w kwestiach organizacyjnych, przetwarzaniu informacji czy śledzeniu rozwoju terapii, jednak nie jest w stanie zastąpić międzyludzkich więzi, współczucia i profesjonalnej odpowiedzialności. Psychoterapia wykracza też poza zwykłą konwersację – to złożony proces budowany na fundamencie zaufania, wiedzy zawodowej oraz umiejętności radzenia sobie z sytuacjami awaryjnymi. Chatboty mogą służyć jako narzędzia uzupełniające, ale nie należy ich traktować jako pełnowartościowej alternatywy dla tradycyjnej terapii. Zwłaszcza, że użytkownik często może (nie)chcący naprowadzić chatbota na udzielenie takiej porady, jaką chciałby otrzymać.