Technologie

La Chine a utilisé ChatGPT pour cibler la Première ministre japonaise, révèle OpenAI

Le nouveau rapport sur les menaces d'OpenAI révèle comment un compte lié aux forces de l'ordre chinoises a tenté d'utiliser ChatGPT comme arme dans une campagne de diffamation orchestrée par l'État contre la Première ministre japonaise Sanae Takaichi – et comment l'opération s'est poursuivie en utilisant l'IA chinoise nationale.

R
Redakcia
Share
La Chine a utilisé ChatGPT pour cibler la Première ministre japonaise, révèle OpenAI

Une fenêtre sur la guerre de l'information chinoise

Le dernier rapport de renseignement sur les menaces d'OpenAI, publié cette semaine, a levé le voile sur une opération chinoise liée à l'État, jusqu'alors non divulguée, qui a tenté d'utiliser le chatbot ChatGPT comme arme contre la première femme Première ministre du Japon. Cette révélation offre un aperçu exceptionnellement détaillé de la manière dont les gouvernements autoritaires expérimentent – parfois maladroitement – avec des outils d'IA commerciaux pour mener des opérations d'influence à l'étranger.

La cible : la nouvelle Première ministre du Japon

Selon les conclusions d'OpenAI, les analystes ont identifié une session de planification troublante à la mi-octobre 2025, au cours de laquelle un compte ChatGPT associé à une agence chinoise de maintien de l'ordre a demandé au modèle de l'aider à concevoir une campagne de propagande secrète contre Sanae Takaichi. Takaichi, qui est depuis devenue la première femme Première ministre du Japon, avait publiquement critiqué le Parti communiste chinois pour les violations des droits de l'homme en Mongolie intérieure – une déclaration qui a apparemment déclenché l'opération.

Le compte a demandé à ChatGPT de créer du contenu négatif pour les médias sociaux, de générer de fausses plaintes de prétendus résidents étrangers et d'acheminer ces plaintes vers d'autres politiciens japonais – le tout dans le but de discréditer Takaichi avant qu'elle ne puisse consolider son pouvoir.

ChatGPT a refusé. La campagne a quand même eu lieu.

OpenAI affirme que ses mesures de protection ont fonctionné : ChatGPT a refusé d'aider aux demandes de propagande. Mais l'histoire ne s'arrête pas là. Quelques semaines plus tard, le même compte est revenu – cette fois pour télécharger un rapport indiquant que l'opération de diffamation avait eu lieu malgré tout, presque certainement en utilisant des modèles d'IA chinois développés localement et comportant moins de restrictions de contenu.

"Cette opération a révélé beaucoup de choses sur la stratégie de la Chine en matière d'opérations d'influence secrètes et de répression transnationale", a déclaré Ben Nimmo, enquêteur principal de l'équipe de renseignement et d'enquête d'OpenAI.

Le passage à l'IA nationale après le refus de ChatGPT souligne les limites des politiques de contenu d'une seule plateforme comme rempart contre la désinformation orchestrée par l'État.

Échelle industrielle : des centaines d'agents, des milliers de comptes

Bien qu'un seul compte ait interagi avec ChatGPT, l'enquête plus large d'OpenAI a révélé que le réseau chinois sous-jacent était à grande échelle, gourmand en ressources et durable. L'opération déploierait des centaines d'employés gérant des milliers de comptes inauthentiques répartis sur plusieurs plateformes de médias sociaux. Les tactiques comprennent la publication massive, la génération de fausses plaintes contre des comptes dissidents, la falsification de documents et l'usurpation d'identité de fonctionnaires américains pour intimider les critiques chinois à l'étranger.

Un élément d'un tableau plus large d'utilisation abusive

Le rapport complet sur les menaces documente un éventail d'utilisations abusives de ChatGPT au-delà des acteurs étatiques. Des escrocs en Asie du Sud-Est ont utilisé la plateforme pour mener des escroqueries amoureuses ciblant des hommes indonésiens par le biais d'un faux service de rencontres. D'autres se sont fait passer pour des cabinets d'avocats et des agences américaines de maintien de l'ordre pour tromper les victimes de fraude. Plusieurs comptes ont tenté de recueillir des renseignements sur les infrastructures américaines, tandis que certains acteurs ont cherché des conseils sur les logiciels d'échange de visages pour des campagnes de tromperie.

Ce que cela signifie pour la gouvernance de l'IA

L'incident cristallise une tension fondamentale dans l'industrie de l'IA : les outils puissants qui refusent les demandes nuisibles sur les plateformes occidentales peuvent être reproduits par des acteurs étatiques utilisant des alternatives nationales fonctionnant selon des règles différentes. Alors que l'IA générative devient un élément central de la compétition géopolitique, les analystes estiment que cet épisode renforce l'argument en faveur de cadres internationaux établissant des normes de base pour le comportement des modèles d'IA.

Pour l'instant, la décision d'OpenAI de publier ses conclusions en détail constitue l'un des rares mécanismes de responsabilisation publique dans ce qui est par ailleurs un domaine largement invisible – un domaine qui devient rapidement l'une des arènes déterminantes de la politique étatique du XXIe siècle.

Cet article est également disponible dans d'autres langues :

Articles connexes