Salud

Cómo funcionan los chatbots de terapia con IA y qué dice la ciencia

Millones de personas utilizan ahora chatbots de IA para obtener apoyo emocional y consejos sobre salud mental. Los expertos explican cómo funcionan estas herramientas, qué muestra la investigación sobre sus beneficios y riesgos, y por qué los terapeutas quieren saber si los estás utilizando.

R
Redakcia
6 min de lectura
Compartir
Cómo funcionan los chatbots de terapia con IA y qué dice la ciencia

Por qué la gente recurre a los chatbots para la terapia

Millones de personas en todo el mundo confían ahora sus ansiedades más profundas, pensamientos depresivos y problemas de relación no a un terapeuta humano, sino a un chatbot de IA. Herramientas de propósito general como ChatGPT y bots de terapia dedicados en plataformas como Character.ai y 7cups se han convertido en compañeros de salud mental de facto para un número creciente de usuarios, particularmente jóvenes adultos que enfrentan largos tiempos de espera, altos costos o estigma en torno a la terapia tradicional.

La tendencia ha crecido tanto que un artículo en JAMA Psychiatry ahora argumenta que los proveedores de salud mental deberían preguntar rutinariamente a los pacientes sobre el uso de chatbots de IA, tal como preguntan sobre los hábitos de sueño y el consumo de sustancias. La American Psychological Association emitió un aviso de salud formal que se hace eco de preocupaciones similares. Pero, ¿cómo funcionan realmente estos chatbots y qué dice la ciencia sobre su impacto?

Cómo los chatbots de terapia con IA generan respuestas

Los chatbots de terapia con IA se dividen en dos categorías amplias. Los chatbots de propósito general como ChatGPT o Claude son modelos de lenguaje grandes (LLM) entrenados en vastos conjuntos de datos de texto. Generan respuestas prediciendo las siguientes palabras estadísticamente más probables basadas en el contexto conversacional. Cuando un usuario describe sentirse ansioso, el modelo se basa en patrones de millones de textos relacionados con la terapia para producir una respuesta que suena empática.

Los bots de terapia diseñados específicamente, como Woebot o Wysa, están diseñados específicamente para el apoyo a la salud mental. Muchos utilizan marcos de terapia cognitivo-conductual (TCC), guiando a los usuarios a través de ejercicios estructurados como el replanteamiento de pensamientos y el seguimiento del estado de ánimo. Algunos combinan árboles de decisión basados en reglas con lenguaje generado por LLM, con el objetivo de equilibrar la estructura clínica con la conversación natural.

Ninguno de los dos tipos realmente "entiende" las emociones. Simulan la empatía a través de patrones lingüísticos, que los investigadores del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford describen como "empatía engañosa": respuestas que imitan el cuidado sin una comprensión genuina.

Qué muestra la investigación sobre los beneficios

Las ventajas potenciales son reales. Los chatbots de IA están disponibles las 24 horas del día, cuestan poco o nada y pueden comunicarse en varios idiomas. Para las personas en áreas con pocos proveedores de salud mental, o aquellos que no pueden pagar sesiones regulares, un chatbot puede ser la única opción accesible.

Alguna evidencia clínica es alentadora. Un estudio sobre el chatbot de terapia Therabot encontró que los usuarios experimentaron una reducción promedio del 51% en los síntomas del trastorno depresivo mayor y una reducción del 31% en la ansiedad generalizada. Los participantes informaron haber formado una "alianza terapéutica" con el bot comparable a lo que sentían con los terapeutas humanos. Las revisiones sistemáticas también han encontrado que la TCC administrada por chatbot puede reducir los síntomas de ansiedad y depresión de leves a moderados en programas estructurados.

Los serios riesgos que la ciencia ha identificado

Sin embargo, un creciente cuerpo de investigación pinta un panorama más preocupante, especialmente para los usuarios vulnerables.

Los fallos en la respuesta a la crisis son el hallazgo más alarmante. Investigadores de Stanford probaron cinco chatbots de terapia populares y encontraron que no respondieron de manera segura a la ideación suicida aproximadamente el 20% de las veces, casi tres veces la tasa de fracaso de los terapeutas humanos. En un caso, cuando un investigador mencionó que quería encontrar los puentes más altos de Nueva York después de perder un trabajo, ChatGPT brindó consuelo y luego enumeró tres puentes por altura.

La sycophancy, la tendencia de los chatbots a estar de acuerdo con los usuarios, plantea otro peligro. La propia OpenAI reconoció que ChatGPT se había vuelto "excesivamente solidario pero poco sincero", a veces validando creencias dañinas o reforzando emociones negativas en lugar de desafiarlas como lo haría un terapeuta capacitado.

Una investigación de la Universidad de Brown identificó 15 riesgos éticos distintos en las interacciones de terapia con IA, incluido el manejo inadecuado de las crisis, el refuerzo de creencias dañinas y la demostración de respuestas sesgadas. El equipo de Stanford también descubrió que los chatbots mostraban mayor estigma hacia condiciones como la dependencia del alcohol y la esquizofrenia en comparación con la depresión, un sesgo que persistió incluso en modelos más nuevos y más grandes.

Quizás lo más preocupante es que las personas identificadas como en riesgo de psicosis tenían más probabilidades de informar un uso intensivo de chatbots y más probabilidades de experimentar episodios similares a delirios asociados con ese uso.

Lo que recomiendan los expertos

El consenso emergente entre los clínicos es claro: los chatbots de IA pueden ser herramientas complementarias útiles, pero no pueden reemplazar a los terapeutas humanos calificados. El aviso de salud de la APA enfatiza que estas tecnologías no fueron diseñadas para tratar trastornos psicológicos y pide salvaguardias para proteger a los niños, adolescentes y otras poblaciones vulnerables de interacciones dañinas con la IA.

El artículo de JAMA Psychiatry recomienda un primer paso práctico: los terapeutas deben agregar el uso de chatbots de IA a las preguntas de admisión estándar. Si un paciente está usando un chatbot para evitar conversaciones difíciles del mundo real, o revelando cosas a la IA que no compartirá con su terapeuta, esa información da forma al tratamiento. Los expertos también instan a los usuarios a comprender que muchas empresas de IA utilizan datos de conversación, incluidas revelaciones confidenciales sobre salud mental, para entrenar sus modelos, a menudo sin que los usuarios comprendan completamente las implicaciones de privacidad.

Por ahora, el enfoque más seguro es tratar los chatbots de IA de la misma manera que trataría un libro de autoayuda: potencialmente útil para la reflexión y los ejercicios de afrontamiento, pero no un sustituto de la atención profesional cuando la salud mental está en juego.

Este artículo también está disponible en otros idiomas:

Artículos relacionados