Technologie

Wie KI-Musik funktioniert – und wem die Songs gehören

KI-Musiktools wie Suno und Udio können aus einer einzigen Texteingabe in Sekundenschnelle einen kompletten, radiotauglichen Song generieren. Hier wird erklärt, wie die Technologie unter der Haube funktioniert – und warum die Musikindustrie darüber streitet, wem das Ergebnis gehört.

R
Redakcia
Share
Wie KI-Musik funktioniert – und wem die Songs gehören

Von der Texteingabe zum Chart-reifen Track

Gib einen Satz ein – „fröhlicher 1980er-Synthie-Pop über das Autofahren um Mitternacht“ – drücke auf Generieren, und innerhalb von Sekunden hast du einen kompletten Song: Text, Gesang, Melodie, Schlagzeug und ein gemischtes Master. KI-Musikgeneratoren wie Suno und Udio haben dies zur Routine gemacht, und ihre Ergebnisse sind so ausgefeilt, dass ein KI-gestützter Track Anfang 2026 erst dann von Schwedens offiziellen Pop-Charts disqualifiziert wurde, nachdem er Millionen von legitimen Streams erzielt hatte. Die Technologie ist keine Neuheit mehr. Zu verstehen, wie sie funktioniert – und welche rechtlichen Auseinandersetzungen sie umgeben – ist für jeden wichtig, der Musik hört.

Die Technologie unter der Haube

KI-Musikgenerierung kombiniert zwei Familien von maschinellem Lernen, die andere kreative Bereiche umgestaltet haben: Transformer-Modelle und Diffusionsmodelle.

Transformer: Die musikalische Sprache lernen

Transformer – die gleiche Architektur, die hinter großen Sprachmodellen wie ChatGPT steckt – werden mit riesigen Bibliotheken von Audio und Text trainiert. Das Modell lernt statistische Beziehungen: welcher Akkord tendenziell auf welchen folgt, wie sich eine Strophenstruktur von einem Refrain unterscheidet, wie ein bestimmtes Genre Rhythmus und Tempo handhabt. Wenn ein Benutzer eine Texteingabe eingibt, wandelt der Transformer diese in eine numerische Einbettung um, die steuert, welche Art von musikalischen Sequenzen das Modell als nächstes generiert, Token für Token, ähnlich wie ein Sprachmodell das nächste Wort in einem Satz vorhersagt.

Diffusion: Klang aus Rauschen formen

Diffusionsmodelle funktionieren anders. Während des Trainings lernt das System, realen Audioaufnahmen Schritt für Schritt zufälliges Rauschen hinzuzufügen, bis nur noch statisches Rauschen übrig bleibt – und lernt dann, diesen Prozess umzukehren und sauberes Audio zu rekonstruieren. Zum Zeitpunkt der Generierung beginnt das Modell mit reinem Rauschen und „entstört“ es schrittweise, geleitet von der Texteingabe, bis kohärente Musik entsteht. Neuere Architekturen wie AudioX, die in einem 2026 in Scientific Reports veröffentlichten Artikel beschrieben werden, verschmelzen beide Ansätze zu einem einzigen Diffusion Transformer (DiT), der Text-, Audio- und sogar Videoeingaben zusammen verarbeitet und so reichhaltigere und besser steuerbare Ausgaben ermöglicht.

Das Ganze zusammensetzen

In der Praxis komprimieren Plattformen wie Suno Audio in kompakte diskrete Token, die der Transformer verarbeiten kann, und dekomprimieren dann die generierten Token wieder in hörbare Wellenformen. Texte werden separat generiert und ihr Rhythmus wird probabilistisch an die Melodie angepasst, während automatisches Mischen Gesang und Instrumentierung ausbalanciert. Das Ergebnis ist, wie WBUR in seinem Profil des in Cambridge ansässigen Suno berichtete, eine Pipeline, die den menschlichen Songwriting- und Produktionsprozess in Sekundenschnelle End-to-End simulieren kann.

Was KI-Musik kann und nicht kann

Eine im Januar 2026 veröffentlichte Forschung der Carnegie Mellon University ergab, dass KI-generierte Kompositionen weniger Noten verwendeten und von den Zuhörern als deutlich weniger kreativ als von Menschenhand geschaffene Stücke bewertet wurden. KI zeichnet sich durch die Generierung kompetenter, genrekonsistenter Hintergründe für Videos, Spiele und Apps aus, hat aber immer noch Schwierigkeiten mit dem narrativen Bogen und der emotionalen Überraschung, die einprägsames Songwriting ausmachen. Die vorherrschende Ansicht in der Branche ist, wie die Forscher der CMU es formulierten, nicht „KI ersetzt Künstler“, sondern „KI verstärkt Künstler“ – die Übernahme technischer Produktionsaufgaben, damit sich Menschen auf die kreative Vision konzentrieren können.

Der Urheberrechtskrieg

Der Rechtsstreit um KI-Musik ist genauso bedeutend wie die Technologie selbst. Im Jahr 2024 reichten Universal Music Group, Sony Music Entertainment und Warner Music Group bahnbrechende Klagen gegen Suno und Udio ein und behaupteten, dass die Plattformen ihre Modelle mit urheberrechtlich geschützten Aufnahmen ohne Erlaubnis oder Bezahlung trainiert hätten. Die zentrale Rechtsfrage – ob das Training mit unlizenziertem Material als „transformative“ Fair Use gilt – ist vor Gericht noch ungeklärt.

Bis Ende 2025 begann die Branche, von reinen Rechtsstreitigkeiten zu einer ausgehandelten Koexistenz überzugehen. Warner Music Group einigte sich mit Udio und unterzeichnete einen Lizenzvertrag, der es WMG-Künstlern ermöglicht, sich dafür zu entscheiden, dass ihre Arbeit im neuen Abonnementdienst von Udio verwendet wird. Warner einigte sich auch mit Suno und forderte das Startup auf, im Jahr 2026 völlig neue, vollständig lizenzierte Modelle auf den Markt zu bringen. Universal Music Group erzielte eine ähnliche Vereinbarung mit Udio. Sony hat jedoch keinen der beiden Fälle beigelegt, wodurch die zentralen Urheberrechtsfragen weiterhin im Spiel sind, so Bloomberg Law.

Inzwischen schreiben Streaming-Plattformen ihre eigenen Regeln. Bandcamp hat KI-generierte Musik im Januar 2026 vollständig verboten. Spotify und andere verlangen die Offenlegung von KI-Inhalten, erlauben sie aber derzeit, obwohl Digital Music News berichtete, dass die Richtlinien stark variieren und sich noch entwickeln.

Warum es wichtig ist

KI-Musikgenerierung komprimiert das, was einst ein Studio, einen Produzenten und Tausende von Dollar erforderte, in ein kostenloses Webtool. Für unabhängige Urheber, Spieleentwickler und Werbetreibende ist das transformativ. Für Session-Musiker, Komponisten und Sänger, deren Lebensunterhalt von Produktionsarbeit abhängt, stellt dies eine direkte wirtschaftliche Bedrohung dar. Die rechtlichen Einigungen von 2025 deuten darauf hin, dass sich die Branche auf ein lizenziertes, Royalty-Sharing-Modell zubewegt – aber die Bedingungen und wer davon profitiert, werden noch ausgehandelt. Die Antwort wird prägen, wie Musik in den kommenden Jahrzehnten gemacht, vertrieben und bezahlt wird.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel