Tecnología

Cómo funcionan los 'deepfakes' de IA y por qué son tan difíciles de detener

Los 'deepfakes' generados por IA pueden intercambiar rostros, fabricar voces y crear imágenes íntimas no consentidas de personas reales en cuestión de minutos. Explicamos cómo funciona esta tecnología, por qué la detección sigue siendo una carrera armamentística y qué intentan hacer las nuevas leyes al respecto.

R
Redakcia
6 min de lectura
Compartir
Cómo funcionan los 'deepfakes' de IA y por qué son tan difíciles de detener

¿Qué es un 'Deepfake'?

Un 'deepfake' es una foto, un vídeo o un clip de audio que ha sido fabricado o manipulado utilizando inteligencia artificial para que parezca real. El término combina "deep learning" (aprendizaje profundo), la técnica de IA que sustenta la tecnología, con "fake" (falso). Si bien los primeros 'deepfakes' requerían una potencia informática y una experiencia significativas, hoy en día cualquiera con un teléfono inteligente puede generar una imagen falsa convincente en segundos utilizando aplicaciones disponibles gratuitamente.

La tecnología tiene usos creativos legítimos, desde la restauración de metraje de películas antiguas hasta el doblaje de actores en diferentes idiomas. Pero también se ha convertido en una poderosa herramienta para el fraude, la manipulación política y el abuso sexual.

Cómo se crean los 'Deepfakes'

La mayoría de los 'deepfakes' se basan en una de las dos arquitecturas centrales de la IA: las Redes Generativas Antagónicas (GAN) o los modelos de difusión.

Una GAN enfrenta a dos redes neuronales entre sí. El generador crea imágenes falsas; el discriminador intenta detectarlas. A lo largo de miles de ciclos de entrenamiento, el generador aprende a producir imágenes lo suficientemente convincentes como para engañar a su oponente y, por extensión, a los ojos humanos. Los modelos de difusión, que impulsan herramientas como Stable Diffusion y DALL-E, funcionan de manera diferente: aprenden a eliminar gradualmente el ruido aleatorio de una imagen hasta que emerge una imagen realista, guiada por un texto o una imagen de referencia.

Para los 'deepfakes' de intercambio de rostros, la IA se entrena con cientos o miles de imágenes de una persona objetivo, a menudo extraídas de las redes sociales. Luego, mapea su geometría facial en un cuerpo diferente o reemplaza el rostro de otra persona en metraje existente. Las llamadas "aplicaciones para desnudar" toman una foto de una persona real vestida y generan una imagen suya desnuda sin su conocimiento ni consentimiento.

La magnitud del problema

Las cifras son asombrosas. Según datos recopilados por investigadores de seguridad, los informes de material de abuso sexual infantil generado por IA aumentaron un 1325% entre 2023 y 2024, con más de 67.000 informes presentados al Centro Nacional para Niños Desaparecidos y Explotados solo en 2024, frente a solo 4.700 el año anterior. Un estudio del Centro para Contrarrestar el Odio Digital descubrió que un generador de imágenes de IA produjo aproximadamente tres millones de imágenes sexualizadas en menos de dos semanas, incluidas decenas de miles que representaban a menores.

Los daños se extienden mucho más allá del abuso sexual. El fraude financiero con 'deepfakes' se multiplicó por diez en 2024, lo que costó a las empresas norteamericanas más de 200 millones de dólares en un solo trimestre. Los estafadores pueden clonar la voz de una persona a partir de tan solo tres segundos de audio y utilizarla para hacerse pasar por ejecutivos, padres o funcionarios gubernamentales. Un estudio de 2025 descubrió que solo el 0,1% de las personas podía identificar correctamente todos los medios falsos y reales que se les mostraban en una prueba.

Por qué la detección es tan difícil

Las herramientas de detección, que utilizan la IA para buscar signos reveladores de manipulación, como parpadeos antinaturales, desajustes de iluminación o anomalías en la textura de la piel, están inmersas en una constante carrera armamentística con los creadores de 'deepfakes'. A medida que los detectores mejoran, los generadores se vuelven a entrenar para derrotarlos. Investigadores del Alan Turing Institute advierten que la precisión de la detección disminuye drásticamente cuando el 'deepfake' se crea utilizando un método diferente al utilizado para entrenar al detector.

Un enfoque prometedor es la procedencia del contenido: incrustar metadatos criptográficos en las imágenes en el momento de la creación, para que los espectadores puedan verificar si una foto fue tomada por una cámara o generada por IA. La Coalition for Content Provenance and Authenticity (C2PA), respaldada por Adobe, Microsoft y los principales fabricantes de cámaras, está construyendo un estándar global para esto. SynthID de Google marca con marcas de agua invisibles las imágenes generadas por IA. Pero las marcas de agua se pueden eliminar, los metadatos se pueden borrar y las capturas de pantalla evitan el sistema por completo.

Qué dice la ley

La legislación se está poniendo al día, lentamente. La ley estadounidense TAKE IT DOWN Act, promulgada en mayo de 2025, tipificó como delito la publicación no consentida de imágenes íntimas, incluidos los 'deepfakes' generados por IA, y exige que las plataformas eliminen el contenido marcado en un plazo de 48 horas. La DEFIANCE Act, aprobada por el Senado en enero de 2026, crea un derecho de acción civil federal que permite a las víctimas demandar a los creadores y distribuidores de 'deepfakes' íntimos no consentidos por hasta 150.000 dólares en daños y perjuicios, o 250.000 dólares si el abuso está relacionado con el acoso o la agresión.

La aplicación sigue siendo irregular. Muchas aplicaciones de 'deepfakes' operan en diferentes jurisdicciones, las plataformas luchan por seguir el ritmo del volumen de cargas y los creadores anónimos son difíciles de rastrear. Los grupos de la sociedad civil argumentan que los plazos de retirada siguen siendo demasiado lentos y que las empresas tecnológicas deben hacer más para evitar la generación en primer lugar, no solo reaccionar después de que se haya causado el daño.

Qué puede hacer usted

La concienciación es la primera línea de defensa. Los expertos recomiendan limitar las fotos disponibles públicamente en las redes sociales, utilizar la búsqueda inversa de imágenes para comprobar si sus fotos han sido utilizadas indebidamente y denunciar las imágenes íntimas no consentidas a las plataformas y a las fuerzas del orden. Organizaciones como StopNCII ayudan a las víctimas a crear 'hashes' digitales de las imágenes para que las plataformas puedan bloquear proactivamente su difusión antes de que se vuelvan virales.

El desafío más profundo es estructural: a medida que la generación de imágenes por IA se vuelve más barata y accesible, la brecha entre lo que es real y lo que es fabricado seguirá reduciéndose. Para resolverlo, no solo se necesitará una mejor tecnología, sino también marcos legales más sólidos, la rendición de cuentas de las plataformas y un cambio cultural en la forma en que se tratan los medios sintéticos en línea.

Este artículo también está disponible en otros idiomas:

Artículos relacionados