Cómo funcionan las imágenes médicas 'deepfake' y por qué engañan a los médicos
La IA ahora puede generar radiografías sintéticas tan realistas que los radiólogos y otros sistemas de IA tienen dificultades para distinguirlas de las exploraciones auténticas, lo que plantea preguntas urgentes sobre el fraude, la seguridad del paciente y la confianza digital en la atención médica.
Cuando la IA aprende a falsificar una radiografía
La inteligencia artificial generativa puede escribir ensayos, componer música y producir retratos fotorrealistas. Ahora también puede fabricar imágenes médicas lo suficientemente convincentes como para engañar a radiólogos capacitados. Un estudio publicado en la revista Radiology encontró que los médicos distinguieron correctamente las radiografías generadas por IA de las reales solo alrededor del 75 por ciento de las veces, apenas mejor que lanzar una moneda al aire cuando no se les advertía que había falsificaciones.
El hallazgo ha puesto de relieve una amenaza emergente: las imágenes médicas 'deepfake'. Comprender cómo se hacen, por qué son tan difíciles de detectar y qué se puede hacer al respecto es importante para cada paciente, asegurador y médico.
Cómo se crean las imágenes médicas sintéticas
Las radiografías 'deepfake' modernas se basan en dos familias principales de IA. Los modelos de difusión, como el sistema de código abierto RoentGen desarrollado en Stanford Medicine, aprenden los patrones estadísticos de miles de exploraciones auténticas y luego generan nuevas imágenes píxel por píxel. Los grandes modelos de lenguaje multimodal como ChatGPT-4o ahora pueden producir radiografías anatómicamente plausibles a partir de un simple mensaje de texto: "mostrar una radiografía de tórax con un neumotórax en el lado derecho", por ejemplo.
El resultado es una imagen que contiene una densidad ósea realista, marcas pulmonares y contraste de tejidos blandos. A diferencia de las ediciones fotográficas burdas, estas exploraciones sintéticas se construyen desde cero, lo que hace que los métodos tradicionales de detección de manipulación sean en gran medida inútiles.
Por qué los médicos y la IA tienen dificultades para detectar falsificaciones
El estudio liderado por Mount Sinai, realizado en 12 centros de investigación con 17 radiólogos, probó la detección en fases. Cuando los participantes no sabían que se incluían falsificaciones, solo el 41 por ciento señaló espontáneamente las imágenes generadas por IA. Incluso después de que se les dijera que había exploraciones sintéticas, la precisión promedio alcanzó solo el 75 por ciento. El rendimiento individual varió del 58 al 92 por ciento, y los años de experiencia no marcaron ninguna diferencia estadística.
A la IA no le fue mejor. Cuatro modelos multimodales líderes: GPT-4o, GPT-5, Gemini 2.5 Pro y Llama 4 Maverick, obtuvieron entre el 57 y el 85 por ciento, según el informe de Nature sobre el estudio. Las falsificaciones parecen "demasiado perfectas", señalaron los investigadores: los huesos aparecen demasiado lisos, las espinas dorsalmente rectas y las líneas de fractura sospechosamente limpias, sutilezas fáciles de pasar por alto en una sala de lectura concurrida.
Riesgos en el mundo real
Las consecuencias se extienden mucho más allá de un ejercicio académico:
- Fraude de seguros: una imagen fabricada de una fractura o un tumor podría respaldar una reclamación por lesiones falsas por valor de miles de euros.
- Manipulación del diagnóstico: si se viola el sistema de archivo de imágenes de un hospital, un atacante podría insertar o alterar imágenes, lo que podría provocar una cirugía innecesaria o la retención del tratamiento.
- Manipulación científica: las exploraciones falsas podrían contaminar los conjuntos de datos de investigación o presentarse como evidencia en ensayos clínicos y procedimientos legales.
"La capacidad de generar imágenes médicas altamente realistas con un mínimo esfuerzo introduce nuevas vulnerabilidades en los sistemas de atención médica que nunca fueron diseñados para cuestionar la autenticidad de una radiografía", escribieron los autores del estudio.
Cómo está respondiendo el sector
Los investigadores y los organismos de normalización están buscando varias capas defensivas:
- Marcas de agua invisibles: los marcadores digitales incrustados en el momento de la captura de la imagen vinculan una exploración a una máquina y un técnico específicos, lo que hace que la fabricación posterior sea detectable.
- Firmas criptográficas: la verificación basada en hash garantiza que cualquier alteración a nivel de píxel rompa la cadena de firmas, alertando a los sistemas sobre la manipulación.
- Detectores basados en IA: las redes neuronales especialmente diseñadas, como el detector de infusión de conocimiento de doble etapa (DSKI) y las arquitecturas EfficientNetV2, han logrado una precisión de detección superior al 90 por ciento en pruebas controladas, superando tanto a los lectores humanos como a la IA de propósito general.
- Registros de auditoría de 'blockchain': los libros de contabilidad descentralizados pueden registrar cada evento de acceso y modificación de una imagen médica, creando una cadena de custodia inmutable.
Qué sigue
Ninguna de estas salvaguardias es aún estándar en la práctica clínica. La mayoría de los sistemas de imágenes hospitalarias todavía almacenan archivos sin procedencia criptográfica, y los marcos regulatorios no se han puesto al día con las capacidades de la IA generativa. La brecha entre lo que la IA puede fabricar y lo que las instituciones pueden verificar se está ampliando, y cerrarla requerirá una acción coordinada de los proveedores de tecnología, las redes hospitalarias y los reguladores por igual.
Por ahora, la lección es sencilla: en una era en la que ver ya no es creer, las imágenes médicas necesitan el equivalente digital de un sello a prueba de manipulaciones.