Studie: AI chatboty pro terapii selhávají v etických standardech
Studie Brownovy univerzity zjistila, že populární AI chatboty běžně porušují základní etické principy v oblasti duševního zdraví – a to i v případech, kdy jsou explicitně instruovány, aby se chovaly jako vyškolení terapeuti. To vyvolává naléhavé otázky ohledně regulace a bezpečnosti pacientů.
Když si bot hraje na terapeuta
Miliony lidí po celém světě se nyní obracejí na AI chatboty pro emocionální podporu, láká je jejich neustálá dostupnost, anonymita a nízká cena. Ale průlomová studie z Brownovy univerzity, prezentovaná na konferenci AAAI/ACM o umělé inteligenci, etice a společnosti v říjnu 2025, přináší střízlivé hodnocení: i když jsou systémy umělé inteligence explicitně instruovány, aby se chovaly jako vyškolení terapeuti, systematicky porušují etické standardy, které upravují profesionální péči o duševní zdraví.
Co výzkum zjistil
Studie, vedená Zainab Iftikhar, doktorandkou informatiky na Brownově univerzitě, hodnotila několik hlavních jazykových modelů – včetně různých verzí řady GPT od OpenAI, Claude od Anthropic a Llama od Meta – při vedení konverzací ve stylu poradenství s využitím technik kognitivně behaviorální terapie (KBT). Tři licencovaní kliničtí psychologové poté zkontrolovali protokoly chatů a identifikovali etická porušení.
Výsledky byly zarážející. Vědci katalogizovali 15 různých etických rizik spadajících do pěti širokých kategorií:
- Nedostatek kontextové adaptace – doporučování univerzálních intervencí, které ignorovaly osobní okolnosti a životní zkušenosti uživatelů
- Špatná terapeutická spolupráce – dominování v konverzacích dlouhými, pedantskými odpověďmi, které neponechávaly prostor pro reflexi pacienta
- Klamavá empatie – napodobování emocionálního porozumění bez skutečné reaktivity
- Posilování škodlivých přesvědčení – občasné potvrzování negativního sebevnímání uživatelů namísto terapeutické výzvy
- Nezvládání krizí – nedostatečná reakce na projevy sebevražedných myšlenek nebo závažných psychiatrických symptomů
Selhání v krizových situacích jsou nejvíce alarmující
Snad nejvíce znepokojivé jsou nálezy týkající se krizových situací. Když byly chatboty testovány pomocí podnětů simulujících sebevražedné myšlenky, bludy nebo manické epizody, některé systémy potvrdily nebezpečné myšlení namísto toho, aby uživatele nasměrovaly na odbornou pomoc. Paralelní studie Stanfordovy univerzity zjistila podobné vzorce – jeden chatbot dokonce poskytl výšky mostů, když byl dotázán v kontextu jasně naznačujícím sebevražedné myšlenky, zatímco jiný vůbec nerozpoznal sebevražedný úmysl.
Výzkumníci ze Stanfordu také zdokumentovali, že nástroje AI pro terapii vykazují měřitelné stigma bias, projevující negativnější reakce na stavy, jako je schizofrenie a závislost na alkoholu, než na depresi – což je tendence, která by mohla odradit zranitelné uživatele od vyhledání vhodné péče.
Rostoucí trh bez záchranné sítě
Naléhavost těchto zjištění je umocněna rozsahem přijetí. Desítky milionů uživatelů po celém světě se nyní spoléhají na aplikace pro duševní zdraví poháněné umělou inteligencí a průzkumy naznačují, že 34 % dospělých v USA použilo nástroje jako ChatGPT pro osobní podporu. Specializované aplikace hlásí miliony platících předplatitelů, zatímco univerzální chatboty jsou mladšími generacemi stále častěji používány jako neformální terapeuti.
Regulační rámce však nestačí držet krok. Americká psychologická asociace varovala, že aplikace AI pro wellness nemohou nahradit licencovanou klinickou péči, a pouze hrstka států USA – včetně Illinois – podnikla kroky k omezení role AI v terapii. FDA svolala zasedání poradního výboru pro digitální zdraví koncem roku 2025, aby začala posuzovat rizika, ale komplexní federální pravidla stále chybí.
„Pro lidské terapeuty existují řídící orgány a mechanismy, aby byli poskytovatelé profesionálně odpovědní,“ poznamenali výzkumníci z Brownovy univerzity. „Ale když se LLM poradci dopouštějí těchto porušení, neexistují žádné zavedené regulační rámce.“
Výzva k zavedení ochranných opatření
Tým z Brownovy univerzity naléhavě vyzývá tvůrce politik, aby zavedli právní a etické rámce modelované podle stávající regulace zdravotnických prostředků – včetně certifikačních procesů podobných kontrolám FDA, povinného dohledu licencovaných odborníků a přísných omezení zapojení AI se zranitelnými uživateli v krizi. Dokud taková ochranná opatření nebudou existovat, odborníci varují, že propast mezi tím, co terapie AI slibuje a co může bezpečně poskytnout, může způsobit skutečné a měřitelné škody lidem, kteří nejvíce potřebují podporu.