Wie KI-Deepfakes funktionieren – und warum sie so schwer aufzuhalten sind
KI-generierte Deepfakes können in Minutenschnelle Gesichter austauschen, Stimmen fälschen und intime Bilder von echten Menschen ohne deren Zustimmung erstellen. Wir erklären, wie die Technologie funktioniert, warum die Erkennung ein Wettlauf mit der Zeit bleibt und was neue Gesetze dagegen unternehmen sollen.
Was ist ein Deepfake?
Ein Deepfake ist ein Foto, Video oder Audioclip, der mithilfe künstlicher Intelligenz gefälscht oder manipuliert wurde, um ihn echt erscheinen zu lassen. Der Begriff setzt sich aus "Deep Learning" – der KI-Technik hinter der Technologie – und "Fake" zusammen. Während frühe Deepfakes erhebliche Rechenleistung und Fachwissen erforderten, kann heute jeder mit einem Smartphone in Sekundenschnelle überzeugende gefälschte Bilder mit frei verfügbaren Apps erstellen.
Die Technologie hat legitime kreative Anwendungen – von der Restaurierung gealterten Filmmaterials bis hin zur Synchronisation von Schauspielern in verschiedenen Sprachen. Sie ist aber auch zu einem mächtigen Werkzeug für Betrug, politische Manipulation und sexuellen Missbrauch geworden.
Wie Deepfakes hergestellt werden
Die meisten Deepfakes basieren auf einer von zwei zentralen KI-Architekturen: Generative Adversarial Networks (GANs) oder Diffusionsmodelle.
Ein GAN lässt zwei neuronale Netze gegeneinander antreten. Der Generator erstellt gefälschte Bilder; der Diskriminator versucht, sie zu erkennen. Über Tausende von Trainingszyklen lernt der Generator, Bilder zu erzeugen, die überzeugend genug sind, um seinen Gegner – und damit auch menschliche Augen – zu täuschen. Diffusionsmodelle, die Tools wie Stable Diffusion und DALL-E antreiben, funktionieren anders: Sie lernen, nach und nach zufälliges Rauschen aus einem Bild zu entfernen, bis ein realistisches Bild entsteht, das durch eine Text- oder Bildvorgabe gesteuert wird.
Für Face-Swap-Deepfakes wird die KI mit Hunderten oder Tausenden von Bildern einer Zielperson trainiert – oft aus Social Media zusammengetragen. Sie bildet dann deren Gesichtsgeometrie auf einen anderen Körper ab oder ersetzt das Gesicht einer anderen Person in bestehendem Filmmaterial. Sogenannte "Undressing Apps" nehmen ein bekleidetes Foto einer echten Person und erzeugen ohne deren Wissen oder Zustimmung ein Nacktbild von ihr.
Das Ausmaß des Problems
Die Zahlen sind erschreckend. Laut Daten von Sicherheitsforschern stiegen die Meldungen über KI-generiertes Material mit sexuellem Kindesmissbrauch zwischen 2023 und 2024 um 1.325 %, wobei allein im Jahr 2024 über 67.000 Meldungen an das National Center for Missing and Exploited Children gingen – gegenüber nur 4.700 im Vorjahr. Eine Studie des Center for Countering Digital Hate ergab, dass ein KI-Bildgenerator in weniger als zwei Wochen etwa drei Millionen sexualisierte Bilder produzierte, darunter Zehntausende, die Minderjährige darstellten.
Der Schaden geht weit über sexuellen Missbrauch hinaus. Deepfake-Finanzbetrug hat sich im Jahr 2024 verzehnfacht und nordamerikanischen Unternehmen in einem einzigen Quartal Kosten von über 200 Millionen Dollar verursacht. Betrüger können die Stimme einer Person aus nur drei Sekunden Audiomaterial klonen und damit Führungskräfte, Eltern oder Regierungsbeamte imitieren. Eine Studie aus dem Jahr 2025 ergab, dass nur 0,1 % der Menschen in der Lage waren, alle gefälschten und echten Medien, die ihnen in einem Test gezeigt wurden, korrekt zu identifizieren.
Warum die Erkennung so schwierig ist
Erkennungswerkzeuge – die KI verwenden, um nach verräterischen Anzeichen von Manipulation zu suchen, wie z. B. unnatürliches Blinzeln, Beleuchtungsfehler oder Anomalien in der Hautstruktur – befinden sich in einem ständigen Wettlauf mit Deepfake-Erstellern. Wenn sich die Detektoren verbessern, werden die Generatoren neu trainiert, um sie zu überwinden. Forscher am Alan Turing Institute warnen davor, dass die Erkennungsgenauigkeit stark sinkt, wenn der Deepfake mit einer anderen Methode erstellt wurde als der, mit der der Detektor trainiert wurde.
Ein vielversprechender Ansatz ist die Content Provenance: die Einbettung kryptografischer Metadaten in Bilder zum Zeitpunkt der Erstellung, so dass die Betrachter überprüfen können, ob ein Foto von einer Kamera aufgenommen oder von KI generiert wurde. Die Coalition for Content Provenance and Authenticity (C2PA), die von Adobe, Microsoft und großen Kameraherstellern unterstützt wird, entwickelt einen globalen Standard dafür. Googles SynthID versieht KI-generierte Bilder unsichtbar mit Wasserzeichen. Aber Wasserzeichen können entfernt, Metadaten gelöscht und Screenshots umgehen das System vollständig.
Was das Gesetz sagt
Die Gesetzgebung holt langsam auf. Der US TAKE IT DOWN Act, der im Mai 2025 in Kraft trat, kriminalisiert die Veröffentlichung intimer Bilder ohne Zustimmung, einschließlich KI-generierter Fälschungen, und verpflichtet Plattformen, gemeldete Inhalte innerhalb von 48 Stunden zu entfernen. Der DEFIANCE Act, der im Januar 2026 vom Senat verabschiedet wurde, schafft ein bundesweites zivilrechtliches Klagerecht, das es Opfern ermöglicht, Urheber und Verbreiter von intimen Deepfakes ohne Zustimmung auf bis zu 150.000 Dollar Schadenersatz zu verklagen – oder 250.000 Dollar, wenn der Missbrauch mit Stalking oder Körperverletzung in Verbindung steht.
Die Durchsetzung bleibt lückenhaft. Viele Deepfake-Apps operieren über verschiedene Gerichtsbarkeiten hinweg, Plattformen haben Mühe, mit der Menge der Uploads Schritt zu halten, und anonyme Urheber sind schwer aufzuspüren. Zivilgesellschaftliche Gruppen argumentieren, dass die Fristen für die Entfernung immer noch zu lang sind und dass Technologieunternehmen mehr tun müssen, um die Generierung von Deepfakes von vornherein zu verhindern – und nicht erst zu reagieren, wenn der Schaden bereits entstanden ist.
Was Sie tun können
Bewusstsein ist die erste Verteidigungslinie. Experten empfehlen, die öffentlich verfügbaren Fotos in sozialen Medien einzuschränken, die umgekehrte Bildersuche zu verwenden, um zu überprüfen, ob Ihre Fotos missbraucht wurden, und nicht einvernehmliche intime Bilder an Plattformen und Strafverfolgungsbehörden zu melden. Organisationen wie StopNCII helfen Opfern, digitale Hashes von Bildern zu erstellen, damit Plattformen deren Verbreitung proaktiv blockieren können, bevor sie viral gehen.
Die größere Herausforderung ist strukturell: Da die KI-Bilderzeugung immer billiger und zugänglicher wird, wird sich die Kluft zwischen dem, was real ist und was gefälscht ist, weiter verringern. Um dies zu lösen, bedarf es nicht nur besserer Technologie, sondern auch stärkerer rechtlicher Rahmenbedingungen, der Rechenschaftspflicht der Plattformen und eines kulturellen Wandels im Umgang mit synthetischen Medien im Internet.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook