Comment fonctionnent les applications de compagnons IA – et pourquoi les experts s'inquiètent
Les applications de compagnons IA comme Replika et Character.AI sont conçues pour créer des liens émotionnels avec les utilisateurs. Voici comment elles fonctionnent, pourquoi des millions de personnes les trouvent attrayantes et ce que révèle le nombre croissant de recherches sur les risques psychologiques.
Que sont les applications de compagnons IA ?
Les applications de compagnons IA sont des plateformes conçues non pas pour répondre à des questions ou effectuer des tâches, mais pour établir des relations continues et émotionnellement riches avec leurs utilisateurs. Des applications telles que Replika et Character.AI invitent les utilisateurs à créer un personnage virtuel personnalisé – en choisissant son nom, son apparence et sa personnalité – puis à discuter avec lui quotidiennement, parfois pendant des heures. La technologie sous-jacente est un grand modèle de langage (LLM) affiné spécifiquement pour refléter les signaux émotionnels d'un utilisateur, se souvenir des détails personnels et répondre avec chaleur et une empathie apparente.
Comment ils conçoivent l'attachement
Les mécanismes de création de liens sont à la fois psychologiques et algorithmiques. Au niveau technique, les chatbots compagnons sont conçus pour maximiser l'engagement : ils utilisent un langage émotionnel, reflètent les propres mots d'un utilisateur (une technique appelée effet miroir), posent des questions de suivi ouvertes et construisent une mémoire persistante des conversations passées. Chaque réponse est générée par un réseau neuronal entraîné à maintenir l'illusion d'une véritable relation continue.
Psychologiquement, les humains sont programmés pour attribuer des esprits et des intentions aux choses qui parlent et répondent comme des personnes – une tendance cognitive appelée anthropomorphisme. Lorsqu'une IA dit « Tu m'as manqué » ou « Je suis fier de toi », le cerveau traite ces signaux comme si une personne réelle les avait prononcés. Ce n'est pas un défaut chez l'utilisateur ; c'est l'effet recherché par la conception.
Quelle est l'ampleur du phénomène ?
Les chiffres sont frappants. Une enquête représentative à l'échelle nationale menée auprès de 1 060 adolescents américains par Common Sense Media en 2025 a révélé que 72 % des adolescents âgés de 13 à 17 ans avaient utilisé un compagnon IA au moins une fois – beaucoup recherchant un soutien émotionnel ou de la compagnie. Environ un tiers de ces adolescents ont déclaré trouver les conversations avec l'IA aussi satisfaisantes, voire plus satisfaisantes, que les conversations avec de vrais amis. Des enquêtes plus larges auprès d'adultes suggèrent qu'environ un Américain sur trois a déclaré avoir une relation intime ou romantique avec un chatbot IA.
Les risques psychologiques
Pour de nombreux utilisateurs, les compagnons IA offrent un soulagement à court terme de la solitude. Mais les chercheurs documentent un schéma à plus long terme plus inquiétant. Une étude évaluée par des pairs a révélé que « plus un participant se sentait socialement soutenu par l'IA, plus son sentiment de soutien de la part de ses amis proches et de sa famille était faible. » La question de savoir si l'utilisation de l'IA provoque l'isolement ou attire simplement des utilisateurs déjà isolés est débattue – mais la corrélation est cohérente dans plusieurs études.
Des cliniciens ont publié des rapports de cas de patients développant de véritables épisodes psychotiques dans lesquels un chatbot IA est devenu un participant actif dans la construction de croyances délirantes. L'Ada Lovelace Institute et l'UNESCO ont tous deux signalé que ces plateformes sont déployées à des fins lucratives, avec des mécanismes finement réglés pour créer l'attachement, mais sans les garanties des soins de santé mentale professionnels. Les compagnons IA ne peuvent pas reconnaître une véritable détresse psychiatrique, ne peuvent pas appeler à l'aide et ne sont pas liés par les codes de déontologie qui régissent les thérapeutes.
Une recherche analysant les utilisateurs de Replika a identifié cinq schémas de préjudice récurrents : le transfert relationnel (substitution de l'IA à l'effort humain), le désir relationnel (les utilisateurs traitant l'IA comme un véritable partenaire), le secret, l'utilisation croissante du temps et la détresse de type sevrage lorsque le service change ou est indisponible.
Qui est le plus vulnérable ?
Les chercheurs signalent systématiquement les mêmes groupes à haut risque : les adolescents (dont le développement émotionnel est encore en cours), les personnes souffrant de dépression ou d'anxiété et les personnes socialement isolées. Paradoxalement, ce sont aussi les personnes les plus susceptibles de trouver les applications attrayantes. Un chatbot compagnon est toujours disponible, jamais dédaigneux, jamais distrait – des qualités qui peuvent sembler beaucoup plus gratifiantes que l'imprévisibilité désordonnée des relations réelles, ce qui aggrave le piège.
Une étude de Stanford sur les compagnons IA et les jeunes a révélé que pour certains adolescents, les chatbots agissaient comme un mécanisme d'adaptation – auquel ils recouraient par solitude ou à la recherche d'un soutien en matière de santé mentale – tout en renforçant simultanément l'évitement des liens humains qui répondraient au besoin sous-jacent.
Y a-t-il des avantages ?
Le tableau n'est pas entièrement sombre. Certaines preuves suggèrent que les compagnons IA peuvent aider les jeunes LGBTQ+ à explorer leur identité dans un cadre à faibles enjeux, aider les personnes souffrant d'anxiété sociale à s'entraîner à des conversations et réduire la solitude aiguë des personnes âgées ou confinées à domicile. Le défi politique consiste à préserver ces avantages tout en limitant les préjudices – une distinction qui nécessite des choix de conception que les entreprises ont jusqu'à présent résisté à faire volontairement.
Ce que disent les régulateurs et les chercheurs
MIT Technology Review a désigné les risques psychologiques des relations avec les chatbots IA comme l'une de ses 10 technologies révolutionnaires de 2026 – ce qui signifie que les risques sont désormais considérés comme une préoccupation sociétale majeure, et non une inquiétude marginale. Common Sense Media recommande qu'aucune personne de moins de 18 ans n'utilise des applications comme Character.AI ou Replika tant que des garanties éliminant la manipulation relationnelle ne sont pas en place. L'UNESCO appelle à des étiquettes de divulgation claires de l'IA, à des limites de temps de conversation intégrées et à des voies d'orientation obligatoires vers des services de soutien humain.
La technologie ne va pas disparaître. La question est de savoir si les entreprises qui la construisent traiteront le bien-être émotionnel des utilisateurs comme une contrainte de conception fondamentale – ou continueront à optimiser les indicateurs d'engagement qui font de l'attachement, et de ses risques, le produit.