Technologie

Comment fonctionnent les images médicales truquées par l'IA (deepfakes) – et pourquoi elles trompent les médecins

L'IA peut désormais générer des radiographies synthétiques si réalistes que les radiologues et autres systèmes d'IA ont du mal à les distinguer des scans authentiques, soulevant des questions urgentes concernant la fraude, la sécurité des patients et la confiance numérique dans le domaine de la santé.

R
Redakcia
5 min de lecture
Partager
Comment fonctionnent les images médicales truquées par l'IA (deepfakes) – et pourquoi elles trompent les médecins

Quand l'IA apprend à truquer une radiographie

L'intelligence artificielle générative peut écrire des essais, composer de la musique et produire des portraits photoréalistes. Désormais, elle peut également fabriquer des images médicales suffisamment convaincantes pour tromper des radiologues expérimentés. Une étude publiée dans la revue Radiology a révélé que les médecins ne distinguaient correctement les radiographies générées par l'IA des radiographies réelles qu'environ 75 % du temps, soit à peine mieux qu'un pile ou face lorsqu'ils n'étaient pas avertis de la présence de faux.

Cette découverte met en lumière une menace émergente : les images médicales truquées par l'IA (deepfakes). Comprendre comment elles sont fabriquées, pourquoi elles sont si difficiles à détecter et ce qui peut être fait à leur sujet est essentiel pour chaque patient, assureur et clinicien.

Comment les images médicales synthétiques sont créées

Les radiographies truquées modernes reposent sur deux principales familles d'IA. Les modèles de diffusion, tels que le système open-source RoentGen développé à Stanford Medicine, apprennent les schémas statistiques de milliers de scans authentiques, puis génèrent de nouvelles images pixel par pixel. Les grands modèles de langage multimodaux comme ChatGPT-4o peuvent désormais produire des radiographies anatomiquement plausibles à partir d'une simple requête textuelle : « montrer une radiographie pulmonaire avec un pneumothorax droit », par exemple.

Le résultat est une image qui contient une densité osseuse, des marquages pulmonaires et un contraste des tissus mous réalistes. Contrairement aux retouches photo grossières, ces scans synthétiques sont construits de A à Z, ce qui rend les méthodes traditionnelles de détection de manipulation largement inutiles.

Pourquoi les médecins et l'IA ont du mal à repérer les faux

L'étude menée par Mount Sinai, réalisée dans 12 centres de recherche avec 17 radiologues, a testé la détection par phases. Lorsque les participants ne savaient pas que des faux étaient inclus, seulement 41 % ont spontanément signalé les images générées par l'IA. Même après avoir été informés de la présence de scans synthétiques, la précision moyenne n'a atteint que 75 %. Les performances individuelles variaient de 58 à 92 %, et les années d'expérience n'ont eu aucune incidence statistique.

L'IA n'a pas fait mieux. Quatre modèles multimodaux de premier plan – GPT-4o, GPT-5, Gemini 2.5 Pro et Llama 4 Maverick – ont obtenu des scores entre 57 et 85 %, selon le reportage de Nature sur l'étude. Les faux semblent « trop parfaits », ont noté les chercheurs : les os apparaissent trop lisses, les colonnes vertébrales anormalement droites et les lignes de fracture suspectes – des subtilités faciles à manquer dans une salle de lecture occupée.

Risques dans le monde réel

Les conséquences vont bien au-delà d'un exercice académique :

  • Fraude à l'assurance – Une image de fracture ou de tumeur fabriquée pourrait étayer une fausse demande d'indemnisation valant des milliers d'euros.
  • Falsification de diagnostic – Si le système d'archivage d'images d'un hôpital est violé, un attaquant pourrait insérer ou modifier des images, ce qui pourrait entraîner une chirurgie inutile ou un traitement refusé.
  • Manipulation scientifique – De faux scans pourraient contaminer des ensembles de données de recherche ou être soumis comme preuves dans des essais cliniques et des procédures judiciaires.

« La capacité de générer des images médicales très réalistes avec un minimum d'effort introduit de nouvelles vulnérabilités dans les systèmes de santé qui n'ont jamais été conçus pour remettre en question l'authenticité d'une radiographie », ont écrit les auteurs de l'étude.

Comment le domaine se défend

Les chercheurs et les organismes de normalisation mettent en œuvre plusieurs couches de défense :

  • Filigranes invisibles – Les marqueurs numériques intégrés au moment de la capture de l'image relient un scan à une machine et à un technicien spécifiques, ce qui rend la fabrication post-hoc détectable.
  • Signatures cryptographiques – La vérification basée sur le hachage garantit que toute altération au niveau des pixels rompt la chaîne de signature, alertant les systèmes de toute falsification.
  • Détecteurs basés sur l'IA – Les réseaux neuronaux spécialement conçus, tels que le Dual-Stage Knowledge Infusing Detector (DSKI) et les architectures EfficientNetV2, ont atteint une précision de détection supérieure à 90 % lors de tests contrôlés, surpassant à la fois les lecteurs humains et l'IA à usage général.
  • Pistes d'audit de la blockchain – Les registres décentralisés peuvent enregistrer chaque événement d'accès et de modification d'une image médicale, créant ainsi une chaîne de traçabilité immuable.

Quelles sont les prochaines étapes

Aucune de ces mesures de protection n'est encore standard dans la pratique clinique. La plupart des systèmes d'imagerie hospitaliers stockent encore des fichiers sans provenance cryptographique, et les cadres réglementaires ne se sont pas adaptés aux capacités de l'IA générative. L'écart entre ce que l'IA peut fabriquer et ce que les institutions peuvent vérifier se creuse – et le combler nécessitera une action coordonnée des fournisseurs de technologie, des réseaux hospitaliers et des organismes de réglementation.

Pour l'instant, la leçon est simple : à une époque où voir n'est plus croire, l'imagerie médicale a besoin de l'équivalent numérique d'un sceau inviolable.

Cet article est également disponible dans d'autres langues :

Articles connexes