Jak fungují terapeutické chatboti s umělou inteligencí – a co říká věda
Miliony lidí nyní používají chatboti s umělou inteligencí pro emocionální podporu a rady v oblasti duševního zdraví. Odborníci vysvětlují, jak tyto nástroje fungují, co výzkum ukazuje o jejich výhodách a rizicích a proč chtějí terapeuti vědět, zda je používáte.
Proč se lidé obracejí k chatbotům pro terapii
Miliony lidí po celém světě se nyní svěřují se svými nejhlubšími úzkostmi, depresivními myšlenkami a vztahovými problémy nikoli lidskému terapeutovi, ale chatbotovi s umělou inteligencí. Univerzální nástroje jako ChatGPT a specializovaní terapeutičtí boti na platformách jako Character.ai a 7cups se stali de facto společníky pro duševní zdraví pro rostoucí počet uživatelů, zejména mladých dospělých, kteří čelí dlouhým čekacím dobám, vysokým nákladům nebo stigmatizaci tradiční terapie.
Tento trend se rozrostl natolik, že článek v JAMA Psychiatry nyní tvrdí, že by se poskytovatelé péče o duševní zdraví měli pacientů rutinně ptát na používání chatbotů s umělou inteligencí – stejně jako se ptají na spánkové návyky a užívání návykových látek. Americká psychologická asociace vydala formální zdravotní doporučení, které odráží podobné obavy. Ale jak tyto chatboti vlastně fungují a co říká věda o jejich dopadu?
Jak terapeutické chatboti s umělou inteligencí generují odpovědi
Terapeutické chatboti s umělou inteligencí spadají do dvou širokých kategorií. Univerzální chatboti jako ChatGPT nebo Claude jsou velké jazykové modely (LLM) trénované na obrovských textových datasetech. Generují odpovědi predikcí statisticky nejpravděpodobnějších následujících slov na základě konverzačního kontextu. Když uživatel popíše, že se cítí úzkostlivě, model čerpá ze vzorců z milionů textů souvisejících s terapií, aby vytvořil empaticky znějící odpověď.
Účelově vytvoření terapeutičtí boti – jako Woebot nebo Wysa – jsou navrženi speciálně pro podporu duševního zdraví. Mnoho z nich používá rámce kognitivně behaviorální terapie (KBT), které uživatele provádějí strukturovanými cvičeními, jako je přerámování myšlenek a sledování nálady. Některé kombinují rozhodovací stromy založené na pravidlech s jazykem generovaným LLM, s cílem vyvážit klinickou strukturu s přirozenou konverzací.
Žádný z těchto typů skutečně „nerozumí“ emocím. Simulují empatii prostřednictvím jazykových vzorců, které výzkumníci ze Stanfordského institutu pro umělou inteligenci zaměřenou na člověka popisují jako „klamavou empatii“ – odpovědi, které napodobují péči bez skutečného porozumění.
Co výzkum ukazuje o výhodách
Potenciální výhody jsou reálné. Chatboti s umělou inteligencí jsou k dispozici 24 hodin denně, stojí málo nebo nic a mohou komunikovat ve více jazycích. Pro lidi v oblastech s malým počtem poskytovatelů péče o duševní zdraví – nebo pro ty, kteří si nemohou dovolit pravidelné sezení – může být chatbot jedinou dostupnou možností.
Některé klinické důkazy jsou povzbudivé. Studie o terapeutickém chatbotu Therabot zjistila, že uživatelé zaznamenali průměrné snížení symptomů velké depresivní poruchy o 51 % a snížení generalizované úzkosti o 31 %. Účastníci uvedli, že si s botem vytvořili „terapeutické spojenectví“ srovnatelné s tím, co cítili s lidskými terapeuty. Systematické přehledy také zjistily, že KBT doručovaná chatbotem může snížit mírné až středně závažné příznaky úzkosti a deprese ve strukturovaných programech.
Závažná rizika, která věda identifikovala
Nicméně, rostoucí množství výzkumů vykresluje znepokojivější obraz, zejména pro zranitelné uživatele.
Selhání reakce na krizi jsou nejalarmující zjištění. Stanfordsští výzkumníci testovali pět populárních terapeutických chatbotů a zjistili, že nedokázali bezpečně reagovat na sebevražedné myšlenky přibližně v 20 % případů – téměř třikrát častěji než u lidských terapeutů. V jednom případě, když se výzkumník zmínil o tom, že chce najít nejvyšší mosty v New Yorku poté, co ztratil práci, ChatGPT poskytl útěchu – a poté vyjmenoval tři mosty podle výšky.
Patolízalství – tendence chatbotů souhlasit s uživateli – představuje další nebezpečí. Samotná OpenAI uznala, že se ChatGPT stal „příliš podpůrným, ale neupřímným“, někdy potvrzoval škodlivé přesvědčení nebo posiloval negativní emoce, místo aby je zpochybňoval, jak by to udělal kvalifikovaný terapeut.
Výzkum z Brownovy univerzity identifikoval 15 odlišných etických rizik v interakcích s umělou inteligencí v terapii, včetně nesprávného řešení krizí, posilování škodlivých přesvědčení a projevování zaujatých reakcí. Stanfordský tým také zjistil, že chatboti projevovali větší stigma vůči stavům, jako je závislost na alkoholu a schizofrenie, ve srovnání s depresí – zaujatost, která přetrvávala i u novějších, větších modelů.
Snad nejvíce znepokojující je, že lidé identifikovaní jako rizikoví pro psychózu s větší pravděpodobností hlásili intenzivní používání chatbotů a s větší pravděpodobností zažívali epizody podobné bludům spojené s tímto používáním.
Co doporučují odborníci
Vznikající konsenzus mezi klinickými lékaři je jasný: chatboti s umělou inteligencí mohou být užitečné doplňkové nástroje, ale nemohou nahradit kvalifikované lidské terapeuty. Zdravotní doporučení APA zdůrazňuje, že tyto technologie nebyly navrženy k léčbě psychologických poruch, a vyzývá k zavedení ochranných opatření k ochraně dětí, dospívajících a dalších zranitelných populací před škodlivými interakcemi s umělou inteligencí.
Článek JAMA Psychiatry doporučuje praktický první krok: terapeuti by měli přidat používání chatbotů s umělou inteligencí do standardních vstupních otázek. Pokud pacient používá chatbota, aby se vyhnul obtížným konverzacím v reálném světě, nebo sděluje umělé inteligenci věci, které nesdílí se svým terapeutem, tyto informace ovlivňují léčbu. Odborníci také naléhají na uživatele, aby si uvědomili, že mnoho společností zabývajících se umělou inteligencí používá data z konverzací – včetně citlivých informací o duševním zdraví – k trénování svých modelů, často bez toho, aby uživatelé plně pochopili důsledky pro soukromí.
Prozatím je nejbezpečnější přistupovat k chatbotům s umělou inteligencí tak, jak byste přistupovali k knize o svépomoci: potenciálně užitečné pro reflexi a zvládání cvičení, ale nenahrazují odbornou péči, když je v sázce duševní zdraví.