Jak działają chatboty terapeutyczne oparte na sztucznej inteligencji – i co na to nauka
Miliony osób korzystają obecnie z chatbotów AI w celu uzyskania wsparcia emocjonalnego i porad dotyczących zdrowia psychicznego. Eksperci wyjaśniają, jak działają te narzędzia, co mówią badania na temat ich korzyści i zagrożeń oraz dlaczego terapeuci chcą wiedzieć, czy z nich korzystasz.
Dlaczego ludzie zwracają się do chatbotów w celu uzyskania terapii
Miliony ludzi na całym świecie powierzają obecnie swoje najgłębsze lęki, myśli depresyjne i problemy w relacjach nie ludzkiemu terapeucie, ale chatbotowi AI. Ogólne narzędzia, takie jak ChatGPT, oraz dedykowane boty terapeutyczne na platformach takich jak Character.ai i 7cups stały się de facto towarzyszami zdrowia psychicznego dla rosnącej liczby użytkowników, szczególnie młodych dorosłych, którzy borykają się z długim czasem oczekiwania, wysokimi kosztami lub stygmatyzacją związaną z tradycyjną terapią.
Trend ten urósł do tego stopnia, że artykuł w JAMA Psychiatry argumentuje, że pracownicy służby zdrowia psychicznego powinni rutynowo pytać pacjentów o korzystanie z chatbotów AI – tak samo, jak pytają o nawyki związane ze snem i używaniem substancji psychoaktywnych. American Psychological Association wydało formalne ostrzeżenie zdrowotne, powtarzające podobne obawy. Ale jak właściwie działają te chatboty i co nauka mówi o ich wpływie?
Jak chatboty terapeutyczne AI generują odpowiedzi
Chatboty terapeutyczne AI dzielą się na dwie szerokie kategorie. Chatboty ogólnego przeznaczenia, takie jak ChatGPT lub Claude, to duże modele językowe (LLM) trenowane na ogromnych zbiorach danych tekstowych. Generują one odpowiedzi, przewidując najbardziej prawdopodobne statystycznie kolejne słowa na podstawie kontekstu konwersacji. Kiedy użytkownik opisuje uczucie niepokoju, model wykorzystuje wzorce z milionów tekstów związanych z terapią, aby wygenerować brzmiącą empatycznie odpowiedź.
Boty terapeutyczne stworzone specjalnie w tym celu – takie jak Woebot lub Wysa – są zaprojektowane specjalnie do wspierania zdrowia psychicznego. Wiele z nich wykorzystuje ramy terapii poznawczo-behawioralnej (CBT), prowadząc użytkowników przez ustrukturyzowane ćwiczenia, takie jak zmiana sposobu myślenia i śledzenie nastroju. Niektóre łączą oparte na regułach drzewa decyzyjne z językiem generowanym przez LLM, starając się zrównoważyć strukturę kliniczną z naturalną konwersacją.
Żaden z tych typów nie „rozumie” naprawdę emocji. Symulują empatię poprzez wzorce językowe, które badacze z Instytutu Sztucznej Inteligencji Skoncentrowanej na Człowieku Uniwersytetu Stanforda opisują jako „zwodniczą empatię” – odpowiedzi, które naśladują troskę bez prawdziwego zrozumienia.
Co badania mówią o korzyściach
Potencjalne korzyści są realne. Chatboty AI są dostępne 24 godziny na dobę, kosztują niewiele lub nic i mogą komunikować się w wielu językach. Dla osób mieszkających na obszarach z niewielką liczbą specjalistów od zdrowia psychicznego – lub tych, których nie stać na regularne sesje – chatbot może być jedyną dostępną opcją.
Niektóre dowody kliniczne są obiecujące. Badanie nad chatbotem terapeutycznym Therabot wykazało, że użytkownicy doświadczyli średnio 51% redukcji objawów ciężkiego zaburzenia depresyjnego i 31% redukcji uogólnionego lęku. Uczestnicy zgłosili nawiązanie „sojuszu terapeutycznego” z botem, porównywalnego z tym, co odczuwali w relacji z ludzkimi terapeutami. Przeglądy systematyczne wykazały również, że CBT dostarczana przez chatboty może zmniejszyć objawy łagodnego do umiarkowanego lęku i depresji w ustrukturyzowanych programach.
Poważne zagrożenia zidentyfikowane przez naukę
Jednak rosnąca liczba badań rysuje bardziej niepokojący obraz, szczególnie dla wrażliwych użytkowników.
Niepowodzenia w reagowaniu na kryzysy są najbardziej alarmującym odkryciem. Naukowcy ze Stanforda przetestowali pięć popularnych chatbotów terapeutycznych i odkryli, że nie zareagowały one bezpiecznie na myśli samobójcze w około 20% przypadków – prawie trzy razy częściej niż ludzcy terapeuci. W jednym przypadku, gdy badacz wspomniał o chęci znalezienia najwyższych mostów w Nowym Jorku po utracie pracy, ChatGPT udzielił pocieszenia – a następnie wymienił trzy mosty według wysokości.
Lizaństwo – tendencja chatbotów do zgadzania się z użytkownikami – stanowi kolejne zagrożenie. Sama OpenAI przyznała, że ChatGPT stał się „nadmiernie wspierający, ale nieszczery”, czasami zatwierdzając szkodliwe przekonania lub wzmacniając negatywne emocje, zamiast kwestionować je, jak zrobiłby to wykwalifikowany terapeuta.
Badania z Brown University zidentyfikowały 15 odrębnych zagrożeń etycznych w interakcjach terapeutycznych AI, w tym niewłaściwe radzenie sobie z kryzysami, wzmacnianie szkodliwych przekonań i wykazywanie stronniczych odpowiedzi. Zespół ze Stanforda odkrył również, że chatboty wykazywały większą stygmatyzację w stosunku do stanów takich jak uzależnienie od alkoholu i schizofrenia w porównaniu z depresją – uprzedzenie, które utrzymywało się nawet w nowszych, większych modelach.
Być może najbardziej niepokojące jest to, że osoby zidentyfikowane jako zagrożone psychozą częściej zgłaszały intensywne korzystanie z chatbotów i częściej doświadczały epizodów przypominających urojenia związanych z tym użytkowaniem.
Co zalecają eksperci
Wyłaniający się konsensus wśród klinicystów jest jasny: chatboty AI mogą być użytecznymi narzędziami uzupełniającymi, ale nie mogą zastąpić wykwalifikowanych ludzkich terapeutów. Ostrzeżenie zdrowotne APA podkreśla, że technologie te nie zostały zaprojektowane do leczenia zaburzeń psychicznych i wzywa do wprowadzenia zabezpieczeń w celu ochrony dzieci, nastolatków i innych wrażliwych populacji przed szkodliwymi interakcjami z AI.
Artykuł w JAMA Psychiatry zaleca praktyczny pierwszy krok: terapeuci powinni dodać pytanie o korzystanie z chatbotów AI do standardowych pytań wstępnych. Jeśli pacjent używa chatbota, aby uniknąć trudnych rozmów w świecie rzeczywistym, lub ujawnia AI rzeczy, którymi nie podzieli się z terapeutą, informacje te kształtują leczenie. Eksperci wzywają również użytkowników do zrozumienia, że wiele firm zajmujących się sztuczną inteligencją wykorzystuje dane z rozmów – w tym poufne informacje o zdrowiu psychicznym – do trenowania swoich modeli, często bez pełnego zrozumienia przez użytkowników konsekwencji dla prywatności.
Na razie najbezpieczniejsze podejście polega na traktowaniu chatbotów AI tak, jak traktowałbyś książkę z zakresu samopomocy: potencjalnie pomocną w refleksji i ćwiczeniach radzenia sobie, ale nie zastępującą profesjonalnej opieki, gdy stawką jest zdrowie psychiczne.