Tecnología

China usó ChatGPT para atacar a la primera ministra de Japón, revela OpenAI

El nuevo informe de amenazas de OpenAI expone cómo una cuenta vinculada a las fuerzas del orden chinas intentó utilizar ChatGPT como arma para una campaña de desprestigio patrocinada por el Estado contra la primera ministra japonesa, Sanae Takaichi, y cómo la operación siguió adelante utilizando IA china de producción nacional.

R
Redakcia
Share
China usó ChatGPT para atacar a la primera ministra de Japón, revela OpenAI

Una ventana a la guerra de la información china

El último informe de inteligencia sobre amenazas de OpenAI, publicado esta semana, ha levantado el velo sobre una operación china vinculada al Estado, hasta ahora no revelada, que intentó utilizar el chatbot ChatGPT como arma contra la primera ministra de Japón. La revelación ofrece una visión inusualmente detallada de cómo los gobiernos autoritarios están experimentando, a veces torpemente, con herramientas comerciales de IA para llevar a cabo operaciones de influencia en el extranjero.

El objetivo: la nueva primera ministra de Japón

Según las conclusiones de OpenAI, los analistas identificaron una preocupante sesión de planificación a mediados de octubre de 2025, cuando una cuenta de ChatGPT asociada a una agencia de las fuerzas del orden chinas pidió al modelo que le ayudara a diseñar una campaña de propaganda encubierta contra Sanae Takaichi. Takaichi, que desde entonces se ha convertido en la primera mujer primera ministra de Japón, había criticado públicamente al Partido Comunista Chino por abusos contra los derechos humanos en Mongolia Interior, una declaración que aparentemente desencadenó la operación.

La cuenta solicitó que ChatGPT elaborara contenido negativo para las redes sociales, generara quejas falsas de supuestos residentes extranjeros y dirigiera esas quejas a otros políticos japoneses, todo ello con el objetivo de desacreditar a Takaichi antes de que pudiera consolidar su poder.

ChatGPT se negó. La campaña siguió adelante de todos modos.

OpenAI afirma que sus salvaguardias funcionaron: ChatGPT se negó a ayudar con las solicitudes de propaganda. Pero la historia no termina ahí. Semanas después, la misma cuenta regresó, esta vez para subir un informe que indicaba que la operación de desprestigio había seguido adelante de todos modos, casi con toda seguridad utilizando modelos de IA chinos de desarrollo nacional que tienen menos restricciones de contenido.

"Esta operación reveló mucho sobre la estrategia de China para las operaciones de influencia encubiertas y la represión transnacional", dijo Ben Nimmo, investigador principal del equipo de inteligencia e investigaciones de OpenAI.

El giro hacia la IA de producción nacional tras la negativa de ChatGPT subraya los límites de las políticas de contenido de cualquier plataforma individual como baluarte contra la desinformación patrocinada por el Estado.

Escala industrial: cientos de agentes, miles de cuentas

Aunque solo una cuenta interactuó con ChatGPT, la investigación más amplia de OpenAI reveló que la red china subyacente era a gran escala, con gran intensidad de recursos y sostenida. Según los informes, la operación despliega a cientos de empleados que gestionan miles de cuentas no auténticas repartidas en múltiples plataformas de redes sociales. Las tácticas incluyen la publicación masiva, la generación de quejas falsas contra cuentas disidentes, la falsificación de documentos y la suplantación de la identidad de funcionarios estadounidenses para intimidar a los críticos chinos en el extranjero.

Parte de un panorama más amplio de uso indebido

El informe completo sobre amenazas documenta una serie de usos indebidos de ChatGPT más allá de los actores estatales. Estafadores en el sudeste asiático utilizaron la plataforma para ejecutar estafas románticas dirigidas a hombres indonesios a través de un servicio de citas falso. Otros se hicieron pasar por bufetes de abogados y agencias de las fuerzas del orden estadounidenses para engañar a las víctimas de fraudes. Varias cuentas intentaron recopilar información sobre la infraestructura estadounidense, mientras que algunos actores buscaron orientación sobre software de intercambio de rostros para campañas de engaño.

Lo que esto significa para la gobernanza de la IA

El incidente cristaliza una tensión fundamental en la industria de la IA: las herramientas potentes que rechazan las solicitudes perjudiciales en las plataformas occidentales pueden ser replicadas por actores estatales que utilizan alternativas nacionales que operan bajo diferentes reglas. A medida que la IA generativa se convierte en un elemento central de la competencia geopolítica, los analistas afirman que el episodio refuerza el argumento a favor de marcos internacionales que establezcan normas básicas para el comportamiento de los modelos de IA.

Por ahora, la decisión de OpenAI de publicar sus conclusiones en detalle se erige como uno de los pocos mecanismos de rendición de cuentas pública en lo que, por lo demás, es un ámbito en gran medida invisible, un ámbito que se está convirtiendo rápidamente en uno de los escenarios definitorios del arte de gobernar del siglo XXI.

Este artículo también está disponible en otros idiomas:

Artículos relacionados