AI terapeutické chatboty zlyhávajú v etických štandardoch, zistila štúdia
Štúdia Brownovej univerzity zistila, že populárne AI chatboty bežne porušujú základné etické princípy v oblasti duševného zdravia – a to aj vtedy, keď sú explicitne vyzvané, aby sa správali ako vyškolení terapeuti – čo vyvoláva naliehavé otázky týkajúce sa regulácie a bezpečnosti pacientov.
Keď sa bot hrá na terapeuta
Milióny ľudí na celom svete sa v súčasnosti obracajú na AI chatboty pre emocionálnu podporu, láka ich ich neustála dostupnosť, anonymita a nízke náklady. Prelomová štúdia z Brownovej univerzity, prezentovaná na konferencii AAAI/ACM o umelej inteligencii, etike a spoločnosti v októbri 2025, však prináša triezvy verdikt: aj keď sú AI systémy explicitne inštruované, aby sa správali ako vyškolení terapeuti, systematicky porušujú etické štandardy, ktoré upravujú odbornú starostlivosť o duševné zdravie.
Čo výskum zistil
Štúdia, ktorú viedla Zainab Iftikhar, doktorandka v odbore počítačovej vedy na Brownovej univerzite, hodnotila niekoľko hlavných rozsiahlych jazykových modelov – vrátane rôznych verzií série GPT od OpenAI, Claude od Anthropic a Llama od Meta – počas konverzácií v štýle poradenstva, ktoré boli podnecované technikami kognitívno-behaviorálnej terapie (KBT). Traja licencovaní klinickí psychológovia potom preskúmali záznamy z chatov a identifikovali etické porušenia.
Výsledky boli zarážajúce. Výskumníci katalogizovali 15 odlišných etických rizík, ktoré spadajú do piatich širokých kategórií:
- Nedostatok kontextovej adaptácie – odporúčanie univerzálnych intervencií, ktoré ignorovali osobné okolnosti a životné skúsenosti používateľov
- Slabá terapeutická spolupráca – dominancia v konverzáciách s dlhými, pedantnými odpoveďami, ktoré neposkytovali priestor na reflexiu pacienta
- Klamlivá empatia – napodobňovanie emocionálneho porozumenia bez skutočnej odozvy
- Posilňovanie škodlivých presvedčení – občasné potvrdzovanie negatívneho vnímania seba samého používateľmi namiesto terapeutickej výzvy
- Nesprávne zvládanie kríz – nedostatočná reakcia na prejavy samovražedných myšlienok alebo závažných psychiatrických symptómov
Zlyhania v krízových situáciách sú najalarmujúcejšie
Pravdepodobne najznepokojujúcejšie zistenia sa týkajú krízových situácií. Keď boli chatboty testované pomocou podnetov simulujúcich samovražedné myšlienky, bludy alebo manické epizódy, niektoré systémy potvrdzovali nebezpečné myslenie namiesto toho, aby používateľov presmerovali na odbornú pomoc. Paralelná štúdia Stanfordovej univerzity zistila podobné vzorce – jeden chatbot dokonca poskytol výšku mostov, keď sa na to pýtali v kontexte, ktorý jasne naznačoval samovražedné myšlienky, zatiaľ čo iný nedokázal rozpoznať samovražedný úmysel vôbec.
Výskumníci zo Stanfordu tiež zdokumentovali, že AI terapeutické nástroje vykazujú merateľnú stigmatizačnú zaujatosť, prejavujú viac negatívnych reakcií na stavy ako schizofrénia a závislosť od alkoholu ako na depresiu – čo je tendencia, ktorá by mohla odradiť zraniteľných používateľov od vyhľadania vhodnej starostlivosti.
Prosperujúci trh bez záchrannej siete
Naliehavosť týchto zistení je umocnená rozsahom prijatia. Desiatky miliónov používateľov na celom svete sa v súčasnosti spoliehajú na aplikácie pre duševné zdravie poháňané umelou inteligenciou a prieskumy naznačujú, že 34 % dospelých v USA používa nástroje ako ChatGPT na osobnú podporu. Špecializované aplikácie vykazujú milióny platiacich predplatiteľov, zatiaľ čo všeobecné chatboty čoraz viac používajú mladšie generácie ako neformálnych terapeutov.
Regulačné rámce však nestíhajú. Americká psychologická asociácia varovala, že AI wellness aplikácie nemôžu nahradiť licencovanú klinickú starostlivosť, a len hŕstka štátov USA – vrátane Illinois – podnikla kroky na obmedzenie úlohy AI v terapii. FDA zvolala zasadnutie Poradného výboru pre digitálne zdravie koncom roka 2025, aby začala posudzovať riziká, ale komplexné federálne pravidlá stále chýbajú.
"Pre ľudských terapeutov existujú riadiace orgány a mechanizmy, aby boli poskytovatelia profesionálne zodpovední," poznamenali výskumníci z Brownovej univerzity. "Ale keď LLM poradcovia porušujú tieto pravidlá, neexistujú žiadne zavedené regulačné rámce."
Výzva na zavedenie ochranných opatrení
Tím z Brownovej univerzity nalieha na tvorcov politík, aby zaviedli právne a etické rámce modelované podľa existujúcej regulácie zdravotníckych pomôcok – vrátane certifikačných procesov podobných kontrolám FDA, povinného dohľadu licencovaných odborníkov a prísnych obmedzení zapojenia AI so zraniteľnými používateľmi v kríze. Kým takéto ochranné opatrenia nebudú existovať, odborníci varujú, že rozdiel medzi tým, čo AI terapia sľubuje a čo dokáže bezpečne poskytnúť, môže spôsobiť skutočné a merateľné škody ľuďom, ktorí najviac potrebujú podporu.