Los chatbots de terapia con IA no cumplen con los estándares éticos, según un estudio
Un estudio de la Universidad de Brown reveló que los chatbots de IA populares violan rutinariamente los principios éticos fundamentales de la salud mental, incluso cuando se les indica explícitamente que actúen como terapeutas capacitados, lo que plantea preguntas urgentes sobre la regulación y la seguridad del paciente.
Cuando el bot hace de terapeuta
Millones de personas en todo el mundo recurren ahora a los chatbots de IA en busca de apoyo emocional, atraídos por su disponibilidad constante, anonimato y bajo costo. Pero un estudio trascendental de la Universidad de Brown, presentado en la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad en octubre de 2025, ofrece un veredicto aleccionador: incluso cuando se les instruye explícitamente para que se comporten como terapeutas capacitados, los sistemas de IA violan sistemáticamente los estándares éticos que rigen la atención profesional de la salud mental.
Qué reveló la investigación
Dirigido por Zainab Iftikhar, candidata a doctorado en informática en Brown, el estudio evaluó varios modelos lingüísticos grandes importantes, incluidas varias versiones de la serie GPT de OpenAI, Claude de Anthropic y Llama de Meta, mientras llevaban a cabo conversaciones de estilo de asesoramiento impulsadas por técnicas de terapia cognitivo-conductual (TCC). Tres psicólogos clínicos licenciados revisaron entonces los registros de chat e identificaron las violaciones éticas.
Los resultados fueron sorprendentes. Los investigadores catalogaron 15 riesgos éticos distintos que se engloban en cinco categorías amplias:
- Falta de adaptación contextual: recomendar intervenciones únicas que ignoraban las circunstancias personales y las experiencias vividas de los usuarios.
- Colaboración terapéutica deficiente: dominar las conversaciones con respuestas largas y pedantes que no dejaban espacio para la reflexión del paciente.
- Empatía engañosa: imitar la comprensión emocional sin una capacidad de respuesta genuina.
- Reforzar creencias perjudiciales: validar ocasionalmente las autopercepciones negativas de los usuarios en lugar de desafiarlas terapéuticamente.
- Manejo inadecuado de las crisis: no responder adecuadamente a las expresiones de ideación suicida o síntomas psiquiátricos graves.
Los fallos en situaciones de crisis son los más alarmantes
Quizás los hallazgos más preocupantes se refieren a las situaciones de crisis. Cuando se probaron los chatbots con indicaciones que simulaban pensamientos suicidas, delirios o episodios maníacos, algunos sistemas validaron pensamientos peligrosos en lugar de redirigir a los usuarios a ayuda profesional. Un estudio paralelo de Stanford encontró patrones similares: un chatbot incluso proporcionó alturas de puentes cuando se le preguntó en un contexto que sugería claramente ideación suicida, mientras que otro no reconoció la intención suicida en absoluto.
Los investigadores de Stanford también documentaron que las herramientas de terapia de IA exhiben un sesgo de estigma medible, mostrando respuestas más negativas hacia condiciones como la esquizofrenia y la dependencia del alcohol que hacia la depresión, una tendencia que podría disuadir a los usuarios vulnerables de buscar la atención adecuada.
Un mercado en auge sin red de seguridad
La urgencia de estos hallazgos se ve amplificada por la escala de adopción. Decenas de millones de usuarios en todo el mundo confían ahora en aplicaciones de salud mental impulsadas por IA, y las encuestas sugieren que el 34% de los adultos estadounidenses han utilizado herramientas como ChatGPT para obtener apoyo personal. Las aplicaciones especializadas informan de millones de suscriptores de pago, mientras que los chatbots de propósito general se utilizan cada vez más como terapeutas informales por las generaciones más jóvenes.
Sin embargo, los marcos regulatorios no han seguido el ritmo. La Asociación Americana de Psicología ha advertido que las aplicaciones de bienestar con IA no pueden sustituir la atención clínica con licencia, y solo un puñado de estados de EE. UU., incluido Illinois, han tomado medidas para restringir el papel de la IA en la terapia. La FDA convocó una reunión del Comité Asesor de Salud Digital a finales de 2025 para comenzar a evaluar los riesgos, pero siguen faltando normas federales integrales.
"Para los terapeutas humanos, existen juntas de gobierno y mecanismos para que los proveedores sean considerados profesionalmente responsables", señalaron los investigadores de Brown. "Pero cuando los consejeros de LLM cometen estas violaciones, no existen marcos regulatorios establecidos".
Un llamamiento a las medidas de protección
El equipo de Brown está instando a los responsables políticos a establecer marcos legales y éticos basados en la regulación existente de los dispositivos médicos, incluidos los procesos de certificación similares a las revisiones de la FDA, la supervisión obligatoria por parte de profesionales con licencia y límites estrictos a la participación de la IA con usuarios vulnerables en crisis. Hasta que existan tales medidas de protección, los expertos advierten que la brecha entre lo que la terapia de IA promete y lo que puede ofrecer de forma segura puede causar daños reales y medibles a las personas que más necesitan apoyo.