China nutzte ChatGPT, um Japans Premierministerin ins Visier zu nehmen, enthüllt OpenAI
Der neue Bedrohungsbericht von OpenAI enthüllt, wie ein chinesisches, mit Strafverfolgungsbehörden verbundenes Konto versuchte, ChatGPT für eine staatlich geförderte Schmutzkampagne gegen Japans Premierministerin Sanae Takaichi zu instrumentalisieren – und wie die Operation trotzdem mit inländischer chinesischer KI durchgeführt wurde.
Einblick in die chinesische Informationskriegsführung
Der diese Woche veröffentlichte neueste Bedrohungsbericht von OpenAI hat den Schleier über eine bisher nicht offengelegte chinesische, staatsnahe Operation gelüftet, die versuchte, den ChatGPT-Chatbot gegen Japans erste Premierministerin zu instrumentalisieren. Die Enthüllung bietet einen ungewöhnlich detaillierten Einblick, wie autoritäre Regierungen – manchmal unbeholfen – mit kommerziellen KI-Tools experimentieren, um ausländische Einflussoperationen durchzuführen.
Das Ziel: Japans neue Premierministerin
Laut OpenAIs Erkenntnissen identifizierten Analysten Mitte Oktober 2025 eine beunruhigende Planungssitzung, in der ein ChatGPT-Konto, das mit einer chinesischen Strafverfolgungsbehörde in Verbindung steht, das Modell aufforderte, bei der Konzeption einer verdeckten Propagandakampagne gegen Sanae Takaichi zu helfen. Takaichi, die inzwischen Japans erste Premierministerin geworden ist, hatte die Kommunistische Partei Chinas öffentlich wegen Menschenrechtsverletzungen in der Inneren Mongolei kritisiert – eine Aussage, die offenbar die Operation auslöste.
Das Konto forderte ChatGPT auf, negative Inhalte für soziale Medien zu erstellen, gefälschte Beschwerden von angeblichen ausländischen Einwohnern zu generieren und diese Beschwerden an andere japanische Politiker weiterzuleiten – alles mit dem Ziel, Takaichi zu diskreditieren, bevor sie ihre Macht festigen konnte.
ChatGPT verweigerte die Hilfe. Die Kampagne wurde trotzdem durchgeführt.
OpenAI gibt an, dass seine Schutzmaßnahmen funktionierten: ChatGPT lehnte es ab, bei den Propagandaanfragen zu helfen. Aber die Geschichte endet hier nicht. Wochen später kehrte dasselbe Konto zurück – diesmal, um einen Bericht hochzuladen, der darauf hindeutet, dass die Schmutzkampagne trotzdem durchgeführt wurde, fast sicher unter Verwendung von im Inland entwickelten chinesischen KI-Modellen, die weniger Inhaltsbeschränkungen aufweisen.
"Diese Operation hat viel über Chinas Strategie für verdeckte Einflussoperationen und transnationale Repressionen enthüllt", sagte Ben Nimmo, Hauptuntersuchungsführer im Intelligence- und Investigationsteam von OpenAI.
Der Schwenk zu einheimischer KI nach der Ablehnung durch ChatGPT unterstreicht die Grenzen der Inhaltsrichtlinien einer einzelnen Plattform als Bollwerk gegen staatlich geförderte Desinformation.
Industrieller Maßstab: Hunderte von Mitarbeitern, Tausende von Konten
Während nur ein Konto mit ChatGPT interagierte, ergab die umfassendere Untersuchung von OpenAI, dass das zugrunde liegende chinesische Netzwerk groß, ressourcenintensiv und nachhaltig ist. Die Operation setzt Berichten zufolge Hunderte von Mitarbeitern ein, die Tausende von unechten Konten verwalten, die über mehrere Social-Media-Plattformen verteilt sind. Zu den Taktiken gehören Massenpostings, das Generieren gefälschter Beschwerden gegen Dissidentenkonten, das Fälschen von Dokumenten und die Nachahmung von US-Beamten, um chinesische Kritiker im Ausland einzuschüchtern.
Teil eines umfassenderen Missbrauchsbildes
Der vollständige Bedrohungsbericht dokumentiert eine Reihe von ChatGPT-Missbräuchen, die über staatliche Akteure hinausgehen. Betrüger in Südostasien nutzten die Plattform, um über einen gefälschten Dating-Service Romance-Fraud-Systeme zu betreiben, die auf indonesische Männer abzielten. Andere gaben sich als Anwaltskanzleien und US-Strafverfolgungsbehörden aus, um Betrugsopfer zu täuschen. Mehrere Konten versuchten, Informationen über die amerikanische Infrastruktur zu sammeln, während einige Akteure Anleitungen zur Verwendung von Face-Swapping-Software für Täuschungskampagnen suchten.
Was dies für die KI-Governance bedeutet
Der Vorfall kristallisiert eine grundlegende Spannung in der KI-Industrie heraus: Leistungsstarke Tools, die schädliche Anfragen auf westlichen Plattformen ablehnen, können von staatlichen Akteuren mithilfe inländischer Alternativen repliziert werden, die unter anderen Regeln operieren. Da generative KI zu einem zentralen Bestandteil des geopolitischen Wettbewerbs wird, stärkt die Episode nach Ansicht von Analysten die Argumente für internationale Rahmenbedingungen, die grundlegende Standards für das Verhalten von KI-Modellen festlegen.
Vorerst ist die Entscheidung von OpenAI, seine Erkenntnisse im Detail zu veröffentlichen, einer der wenigen Mechanismen für öffentliche Rechenschaftspflicht in einem ansonsten weitgehend unsichtbaren Bereich – einem Bereich, der sich rasch zu einer der bestimmenden Arenen der Staatskunst des 21. Jahrhunderts entwickelt.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook