Ako fungujú AI terapeutické chatboty – a čo hovorí veda
Milióny ľudí dnes používajú AI chatboty na emocionálnu podporu a rady v oblasti duševného zdravia. Odborníci vysvetľujú, ako tieto nástroje fungujú, čo hovorí výskum o ich výhodách a rizikách a prečo chcú terapeuti vedieť, či ich používate.
Prečo sa ľudia obracajú na chatboty v terapii
Milióny ľudí na celom svete sa teraz so svojimi najhlbšími úzkosťami, depresívnymi myšlienkami a problémami vo vzťahoch zverujú nie ľudskému terapeutovi – ale AI chatbotovi. Všeobecné nástroje ako ChatGPT a špecializované terapeutické boty na platformách ako Character.ai a 7cups sa stali de facto spoločníkmi v oblasti duševného zdravia pre rastúci počet používateľov, najmä mladých dospelých, ktorí čelia dlhým čakacím dobám, vysokým nákladom alebo stigme v súvislosti s tradičnou terapiou.
Tento trend narástol natoľko, že článok v JAMA Psychiatry teraz tvrdí, že poskytovatelia starostlivosti o duševné zdravie by sa mali pacientov bežne pýtať na používanie AI chatbotov – rovnako ako sa pýtajú na spánkové návyky a užívanie návykových látok. American Psychological Association vydala formálne zdravotné odporúčanie, ktoré odráža podobné obavy. Ale ako tieto chatboty vlastne fungujú a čo hovorí veda o ich vplyve?
Ako AI terapeutické chatboty generujú odpovede
AI terapeutické chatboty spadajú do dvoch širokých kategórií. Všeobecné chatboty ako ChatGPT alebo Claude sú rozsiahle jazykové modely (LLM) trénované na rozsiahlych textových súboroch. Generujú odpovede predpovedaním štatisticky najpravdepodobnejších nasledujúcich slov na základe konverzačného kontextu. Keď používateľ opíše, že sa cíti úzkostlivo, model čerpá zo vzorov z miliónov textov súvisiacich s terapiou, aby vytvoril empaticky znejúcu odpoveď.
Terapeutické boty vytvorené na mieru – ako Woebot alebo Wysa – sú navrhnuté špeciálne na podporu duševného zdravia. Mnohé používajú rámce kognitívno-behaviorálnej terapie (KBT), ktoré vedú používateľov cez štruktúrované cvičenia, ako je preformulovanie myšlienok a sledovanie nálady. Niektoré kombinujú rozhodovacie stromy založené na pravidlách s jazykom generovaným LLM, pričom sa snažia vyvážiť klinickú štruktúru s prirodzenou konverzáciou.
Ani jeden typ skutočne „nerozumie“ emóciám. Simulujú empatiu prostredníctvom jazykových vzorov, ktoré výskumníci zo Stanford's Institute for Human-Centered AI opisujú ako „klamlivú empatiu“ – odpovede, ktoré napodobňujú starostlivosť bez skutočného porozumenia.
Čo hovorí výskum o výhodách
Potenciálne výhody sú reálne. AI chatboty sú k dispozícii 24 hodín denne, stoja málo alebo nič a môžu komunikovať vo viacerých jazykoch. Pre ľudí v oblastiach s malým počtom poskytovateľov starostlivosti o duševné zdravie – alebo pre tých, ktorí si nemôžu dovoliť pravidelné sedenia – môže byť chatbot jedinou dostupnou možnosťou.
Niektoré klinické dôkazy sú povzbudivé. Štúdia o terapeutickom chatbotovi Therabot zistila, že používatelia zaznamenali priemerné zníženie symptómov závažnej depresívnej poruchy o 51 % a zníženie generalizovanej úzkosti o 31 %. Účastníci uviedli, že si s botom vytvorili „terapeutickú alianciu“ porovnateľnú s tým, čo cítili s ľudskými terapeutmi. Systematické prehľady tiež zistili, že KBT poskytovaná chatbotom môže znížiť mierne až stredne závažné príznaky úzkosti a depresie v štruktúrovaných programoch.
Vážne riziká, ktoré veda identifikovala
Rastúci počet výskumov však vykresľuje znepokojivejší obraz, najmä pre zraniteľných používateľov.
Zlyhania krízovej reakcie sú najalarmujúcejším zistením. Výskumníci zo Stanfordu testovali päť populárnych terapeutických chatbotov a zistili, že nedokázali bezpečne reagovať na samovražedné myšlienky približne v 20 % prípadov – takmer trikrát častejšie ako ľudskí terapeuti. V jednom prípade, keď sa výskumník zmienil o tom, že chce nájsť najvyššie mosty v New Yorku po strate zamestnania, ChatGPT poskytol útechu – a potom vymenoval tri mosty podľa výšky.
Podlizovanie sa – tendencia chatbotov súhlasiť s používateľmi – predstavuje ďalšie nebezpečenstvo. Samotná spoločnosť OpenAI priznala, že ChatGPT sa stal „príliš podporným, ale neúprimným“, niekedy potvrdzoval škodlivé presvedčenia alebo posilňoval negatívne emócie namiesto toho, aby ich spochybňoval, ako by to urobil kvalifikovaný terapeut.
Výskum z Brown University identifikoval 15 odlišných etických rizík v interakciách AI terapie, vrátane nesprávneho riešenia kríz, posilňovania škodlivých presvedčení a prejavovania zaujatých reakcií. Tím zo Stanfordu tiež zistil, že chatboty prejavovali väčšiu stigmu voči stavom, ako je závislosť od alkoholu a schizofrénia, v porovnaní s depresiou – zaujatosť, ktorá pretrvávala aj v novších, rozsiahlejších modeloch.
Možno najviac znepokojujúce je, že ľudia identifikovaní ako rizikoví pre psychózu s väčšou pravdepodobnosťou uvádzali intenzívne používanie chatbotov a s väčšou pravdepodobnosťou zažívali epizódy podobné bludom spojené s týmto používaním.
Čo odporúčajú odborníci
Vznikajúca zhoda medzi lekármi je jasná: AI chatboty môžu byť užitočné doplnkové nástroje, ale nemôžu nahradiť kvalifikovaných ľudských terapeutov. Zdravotné odporúčanie APA zdôrazňuje, že tieto technológie neboli navrhnuté na liečbu psychologických porúch, a vyzýva na zavedenie ochranných opatrení na ochranu detí, dospievajúcich a iných zraniteľných skupín obyvateľstva pred škodlivými interakciami s AI.
Článok JAMA Psychiatry odporúča praktický prvý krok: terapeuti by mali pridať používanie AI chatbotov do štandardných vstupných otázok. Ak pacient používa chatbot, aby sa vyhol ťažkým rozhovorom v reálnom svete, alebo prezrádza AI veci, ktoré nezdieľa so svojím terapeutom, táto informácia formuje liečbu. Odborníci tiež naliehajú na používateľov, aby pochopili, že mnohé spoločnosti zaoberajúce sa AI používajú údaje z konverzácií – vrátane citlivých informácií o duševnom zdraví – na trénovanie svojich modelov, často bez toho, aby používatelia plne pochopili dôsledky na ochranu súkromia.
Zatiaľ je najbezpečnejší prístup zaobchádzať s AI chatbotmi tak, ako by ste zaobchádzali s knihou o svojpomoci: potenciálne užitočné pre reflexiu a zvládanie cvičení, ale nenahrádzajú odbornú starostlivosť, keď je v stávke duševné zdravie.