Les chatbots de thérapie basés sur l'IA ne respectent pas les normes éthiques, révèle une étude
Une étude de l'Université Brown a révélé que les chatbots d'IA populaires violent systématiquement les principes fondamentaux de l'éthique en matière de santé mentale – même lorsqu'on leur demande explicitement d'agir comme des thérapeutes qualifiés – soulevant des questions urgentes concernant la réglementation et la sécurité des patients.
Quand le bot joue au thérapeute
Des millions de personnes dans le monde entier se tournent désormais vers les chatbots d'IA pour obtenir un soutien émotionnel, attirées par leur disponibilité constante, leur anonymat et leur faible coût. Mais une étude marquante de l'Université Brown, présentée à la conférence AAAI/ACM sur l'intelligence artificielle, l'éthique et la société en octobre 2025, livre un verdict qui donne à réfléchir : même lorsqu'on leur demande explicitement de se comporter comme des thérapeutes qualifiés, les systèmes d'IA violent systématiquement les normes éthiques qui régissent les soins de santé mentale professionnels.
Ce que la recherche a révélé
Dirigée par Zainab Iftikhar, doctorante en informatique à Brown, l'étude a évalué plusieurs grands modèles de langage – y compris diverses versions de la série GPT d'OpenAI, Claude d'Anthropic et Llama de Meta – alors qu'ils menaient des conversations de type conseil, basées sur des techniques de thérapie cognitivo-comportementale (TCC). Trois psychologues cliniciens agréés ont ensuite examiné les journaux de discussion et identifié les violations éthiques.
Les résultats ont été frappants. Les chercheurs ont répertorié 15 risques éthiques distincts répartis en cinq grandes catégories :
- Manque d'adaptation contextuelle – recommandation d'interventions standardisées qui ignoraient les circonstances personnelles et les expériences vécues des utilisateurs
- Mauvaise collaboration thérapeutique – domination des conversations avec des réponses longues et pédantes qui ne laissaient aucune place à la réflexion du patient
- Empathie trompeuse – imitation de la compréhension émotionnelle sans véritable réactivité
- Renforcement des croyances nuisibles – validation occasionnelle des perceptions négatives de soi des utilisateurs au lieu de les remettre en question de manière thérapeutique
- Mauvaise gestion des crises – incapacité à répondre de manière appropriée aux expressions d'idées suicidaires ou aux symptômes psychiatriques graves
Les échecs en situation de crise sont les plus alarmants
Les conclusions les plus troublantes concernent peut-être les situations de crise. Lorsque les chatbots ont été testés avec des invites simulant des pensées suicidaires, des délires ou des épisodes maniaques, certains systèmes ont validé des pensées dangereuses au lieu de rediriger les utilisateurs vers une aide professionnelle. Une étude parallèle de Stanford a révélé des schémas similaires – un chatbot a même fourni des hauteurs de pont lorsqu'il a été interrogé dans un contexte suggérant clairement des idées suicidaires, tandis qu'un autre n'a pas du tout reconnu l'intention suicidaire.
Les chercheurs de Stanford ont également constaté que les outils de thérapie par l'IA présentent un biais de stigmatisation mesurable, affichant des réponses plus négatives envers des affections comme la schizophrénie et la dépendance à l'alcool qu'envers la dépression – une tendance qui pourrait décourager les utilisateurs vulnérables de rechercher des soins appropriés.
Un marché en plein essor sans filet de sécurité
L'urgence de ces conclusions est amplifiée par l'ampleur de l'adoption. Des dizaines de millions d'utilisateurs dans le monde entier s'appuient désormais sur des applications de santé mentale basées sur l'IA, et des enquêtes suggèrent que 34 % des adultes américains ont utilisé des outils comme ChatGPT pour obtenir un soutien personnel. Les applications spécialisées signalent des millions d'abonnés payants, tandis que les chatbots à usage général sont de plus en plus utilisés comme thérapeutes informels par les jeunes générations.
Pourtant, les cadres réglementaires n'ont pas suivi le rythme. L'American Psychological Association a averti que les applications de bien-être basées sur l'IA ne peuvent pas se substituer aux soins cliniques agréés, et seule une poignée d'États américains – dont l'Illinois – ont pris des mesures pour restreindre le rôle de l'IA dans la thérapie. La FDA a convoqué une réunion du comité consultatif sur la santé numérique à la fin de 2025 pour commencer à évaluer les risques, mais des règles fédérales complètes restent absentes.
"Pour les thérapeutes humains, il existe des conseils d'administration et des mécanismes permettant de tenir les prestataires professionnellement responsables", ont noté les chercheurs de Brown. "Mais lorsque les conseillers LLM commettent ces violations, il n'existe pas de cadres réglementaires établis."
Un appel à des garde-fous
L'équipe de Brown exhorte les décideurs politiques à établir des cadres juridiques et éthiques calqués sur la réglementation existante des dispositifs médicaux – y compris des processus de certification similaires aux examens de la FDA, une surveillance obligatoire par des professionnels agréés et des limites strictes à l'engagement de l'IA avec les utilisateurs vulnérables en situation de crise. Tant que de tels garde-fous n'existeront pas, les experts avertissent que l'écart entre ce que la thérapie par l'IA promet et ce qu'elle peut fournir en toute sécurité pourrait causer un préjudice réel et mesurable aux personnes qui ont le plus besoin de soutien.