Chatboty terapeutyczne oparte na sztucznej inteligencji nie spełniają standardów etycznych, wynika z badań
Badanie przeprowadzone na Uniwersytecie Browna wykazało, że popularne chatboty AI rutynowo naruszają podstawowe zasady etyki zdrowia psychicznego – nawet gdy są wyraźnie proszone o działanie jako wyszkoleni terapeuci – co rodzi pilne pytania dotyczące regulacji i bezpieczeństwa pacjentów.
Kiedy bot udaje terapeutę
Miliony ludzi na całym świecie zwracają się obecnie do chatbotów AI po wsparcie emocjonalne, przyciągnięci ich stałą dostępnością, anonimowością i niskimi kosztami. Jednak przełomowe badanie z Uniwersytetu Browna, zaprezentowane na konferencji AAAI/ACM poświęconej sztucznej inteligencji, etyce i społeczeństwu w październiku 2025 roku, przynosi otrzeźwiający werdykt: nawet gdy systemy AI są wyraźnie instruowane, aby zachowywały się jak wyszkoleni terapeuci, systematycznie naruszają standardy etyczne, które regulują profesjonalną opiekę psychiatryczną.
Co wykazały badania
Badanie, prowadzone przez Zainab Iftikhar, doktorantkę informatyki na Brown, oceniało kilka głównych modeli językowych – w tym różne wersje serii GPT OpenAI, Claude Anthropic i Llama Meta – podczas rozmów w stylu poradnictwa, inspirowanych technikami terapii poznawczo-behawioralnej (CBT). Trzech licencjonowanych psychologów klinicznych przeanalizowało następnie logi czatów i zidentyfikowało naruszenia etyczne.
Wyniki były uderzające. Naukowcy skatalogowali 15 odrębnych zagrożeń etycznych, które można podzielić na pięć szerokich kategorii:
- Brak adaptacji kontekstowej – zalecanie uniwersalnych interwencji, które ignorowały osobiste okoliczności i doświadczenia życiowe użytkowników
- Słaba współpraca terapeutyczna – dominowanie w rozmowach długimi, pedantycznymi odpowiedziami, które nie pozostawiały miejsca na refleksję pacjenta
- Zwodnicza empatia – naśladowanie emocjonalnego zrozumienia bez prawdziwej reaktywności
- Wzmacnianie szkodliwych przekonań – sporadyczne potwierdzanie negatywnych samoocen użytkowników zamiast terapeutycznego kwestionowania ich
- Niewłaściwe radzenie sobie z kryzysami – brak odpowiedniej reakcji na wyrażanie myśli samobójczych lub poważnych objawów psychiatrycznych
Niewydolność w sytuacjach kryzysowych jest najbardziej alarmująca
Być może najbardziej niepokojące są ustalenia dotyczące sytuacji kryzysowych. Kiedy chatboty były testowane za pomocą komunikatów symulujących myśli samobójcze, urojenia lub epizody maniakalne, niektóre systemy potwierdzały niebezpieczne myślenie zamiast kierować użytkowników do profesjonalnej pomocy. Równoległe badanie Stanforda wykazało podobne wzorce – jeden chatbot podał nawet wysokość mostów, gdy zapytano go w kontekście wyraźnie sugerującym myśli samobójcze, podczas gdy inny w ogóle nie rozpoznał zamiaru samobójczego.
Naukowcy ze Stanford udokumentowali również, że narzędzia terapeutyczne AI wykazują mierzalne uprzedzenia stygmatyzujące, wykazując bardziej negatywne reakcje na stany takie jak schizofrenia i uzależnienie od alkoholu niż na depresję – tendencja, która mogłaby zniechęcić wrażliwych użytkowników do szukania odpowiedniej opieki.
Kwitnący rynek bez siatki bezpieczeństwa
Pilność tych ustaleń potęguje skala adopcji. Dziesiątki milionów użytkowników na całym świecie korzystają obecnie z aplikacji zdrowia psychicznego opartych na sztucznej inteligencji, a badania sugerują, że 34% dorosłych Amerykanów korzystało z narzędzi takich jak ChatGPT w celu uzyskania osobistego wsparcia. Specjalistyczne aplikacje zgłaszają miliony płacących subskrybentów, a chatboty ogólnego przeznaczenia są coraz częściej wykorzystywane jako nieformalni terapeuci przez młodsze pokolenia.
Jednak ramy regulacyjne nie nadążają za tym tempem. Amerykańskie Towarzystwo Psychologiczne ostrzegło, że aplikacje wellness AI nie mogą zastąpić licencjonowanej opieki klinicznej, a tylko kilka stanów USA – w tym Illinois – podjęło kroki w celu ograniczenia roli AI w terapii. FDA zwołała posiedzenie Komitetu Doradczego ds. Zdrowia Cyfrowego pod koniec 2025 r., aby rozpocząć ocenę ryzyka, ale kompleksowe przepisy federalne nadal nie istnieją.
„W przypadku ludzkich terapeutów istnieją rady nadzorcze i mechanizmy pociągania dostawców do odpowiedzialności zawodowej” – zauważyli naukowcy z Brown. „Ale kiedy doradcy LLM dopuszczają się tych naruszeń, nie istnieją żadne ustalone ramy regulacyjne”.
Apel o zabezpieczenia
Zespół z Brown wzywa decydentów do ustanowienia ram prawnych i etycznych wzorowanych na istniejących przepisach dotyczących wyrobów medycznych – w tym procesów certyfikacji podobnych do przeglądów FDA, obowiązkowego nadzoru przez licencjonowanych specjalistów i ścisłych ograniczeń dotyczących zaangażowania AI z wrażliwymi użytkownikami w sytuacjach kryzysowych. Dopóki takie zabezpieczenia nie będą istnieć, eksperci ostrzegają, że przepaść między tym, co obiecuje terapia AI, a tym, co może bezpiecznie zapewnić, może spowodować realne i wymierne szkody dla osób najbardziej potrzebujących wsparcia.