Als der Song „Heart on My Sleeve“ im April auf der Social-Media-Plattform Tiktok online geht, erreicht er schnell Millionen Klicks. Gesungen wird das Stück vom kanadischen Rapper Drake – könnte man glauben. Doch die Stimme, die täuschend echt klingt, ist ein Klon, hergestellt mit künstlicher Intelligenz.
Drake ist nicht der einzige Künstler, dessen Stimme schon als Deepfake im Netz aufgetaucht ist. Auch Rihanna, Frank Sinatra und andere Künstler haben Klone, die auf sozialen Plattformen unterwegs sind.
Wenn sich Medienberichte bewahrheiten, könnten solche so genannten Deepfakes, digitale Fälschungen etwa von den Stimmen echter Popstars, bald massenhaft auftauchen – und zu einem neuen Geschäft für die Musikbranche werden. Denn Google, einer der führenden Konzerne auf dem Feld der KI, sei in Gesprächen dazu mit dem Musiklabel Universal Music Group, heißt es in der „Financial Times“.
Eine angedachte Partnerschaft zwischen den beiden Unternehmen solle die Möglichkeiten Generativer KI für die Musikindustrie nutzen. Sind gefälschte Songs wie „Heart on My Sleeve“ juristisch mindestens in einer Grauzone, sollen Fans sie künftig ganz legal erstellen können – mit neuartigen Musikschöpfungs-Werkzeugen im Internet. Die Besitzer der Copyrights bestehender Songs sollen an den Einnahmen beteiligt werden, die Künstler könnten entscheiden, ob sie mitmachen und mitverdienen wollten, heißt es.
Wenn Madonna Reggae singt
Ein Reggae, gesungen von Madonna, ein neuer Rap mit der Stimme von Kate Bush – sieht so die Zukunft der Musikindustrie aus? Technisch jedenfalls wäre das kaum ein Problem mehr. Generative KI ist in den vergangenen Jahren so mächtig geworden, dass sich beliebige Stimmen mit geringem Aufwand klonen lassen.
Schneller schlau: So lernen Maschinen das Denken
Mit Kameras, Mikrofonen und Sensoren erkunden die Maschinen ihre Umwelt. Sie speichern Bilder, Töne, Sprache, Lichtverhältnisse, Wetterbedingungen, erkennen Menschen und hören Anweisungen. Alles Voraussetzungen, um etwa ein Auto autonom zu steuern.
Neuronale Netze, eine Art Nachbau des menschlichen Gehirns, analysieren und bewerten die Informationen. Sie greifen dabei auf einen internen Wissensspeicher zurück, der Milliarden Daten enthält, etwa über Personen, Orte, Produkte, und der immer weiter aufgefüllt wird. Die Software ist darauf trainiert, selbstständig Muster und Zusammenhänge bis hin zu subtilsten Merkmalen zu erkennen und so der Welt um sie herum einen Sinn zuzuordnen. Der Autopilot eines selbstfahrenden Autos würde aus dem Auftauchen lauter gelber Streifen und orangefarbener Hütchen zum Beispiel schließen, dass der Wagen sich einer Baustelle nähert.
Ist das System zu einer abschließenden Bewertung gekommen, leitet es daraus Handlungen, Entscheidungen und Empfehlungen ab – es bremst etwa das Auto ab. Beim sogenannten Deep Learning, der fortschrittlichsten Anwendung künstlicher Intelligenz, fließen die Erfahrungen aus den eigenen Reaktionen zurück ins System. Es lernt zum Beispiel, dass es zu abrupt gebremst hat und wird dies beim nächsten Mal anpassen.
So hat etwa Microsoft Anfang des Jahres ein System namens Vall-E vorgestellt, das menschliche Stimmen reproduzieren kann, wobei teilweise Audio-Schnipsel von nur drei Sekunden Länge als Vorlage ausreichen. Zahlreiche Start-ups wie etwa ElevenLabs und Voice.AI bieten KI-generierte Stimmen inzwischen als Service an.
Google wiederum hat im Januar ein KI-Werkzeug namens MusicML präsentiert, das Textanweisungen in Musik verwandeln kann. So reicht es etwa, einzutippen: „Soulful Jazz für eine Dinner-Party“ – und die künstliche Intelligenz erzeugt gleich mehrere Versionen eines entsprechenden Songs.
Lesen Sie auch: Warum sich Amerikas Schauspieler und Drehbuchautoren so sehr vor ChatGPT und Co. fürchten
Gut vorstellbar also, das Google bald ein Produkt entwickelt, mit dem Jedermann in Sekunden neue Songs generieren kann – und das mit den Stimmen berühmter Popstars. Die Gespräche dazu mit Universal Music seien jedoch noch in einem frühen Stadium, heißt es in dem Medienbericht.
Statt Kunst nur „seelenlose Mittelmäßigkeit“?
Schon vergangenen Herbst hatte der Verband der US-Musikindustrie, die Recording Industry Association of America, vor den Folgen des Einsatzes von KI in der Musikproduktion gewarnt. Die Branchenvertreter sorgen sich, dass die Urheberrechte ihrer Künstler verletzt werden, wenn deren Songs genutzt werden, um KI zu trainieren. „Diese Nutzung ist unbefugt und verletzt die Rechte unserer Mitglieder, indem sie unbefugte Kopien der Werke unserer Mitglieder anfertigt“, so der Verband.
Das will auch die Human Artistry Campaign verhindern, ein Zusammenschluss von Künstlerverbänden, die sich für den Schutz menschlicher Kreativität einsetzt. Der Songwriter Dan Navarro, eines der Mitglieder der Initiative, warnte kürzlich bei einer Anhörung vor US-Politikern: „Indem wir den grundlegenden menschlichen Funken im Musikschaffen marginalisieren und letztendlich aufgeben, laden wir zu einer Zukunft ein, die Fälschungen als echt ansieht und unsere Kunst und Kultur durch seelenlose Mittelmäßigkeit entwürdigt.“
Andere Künstler begegnen dagegen künstlicher Intelligenz weit offener. Sie sei einverstanden damit, wenn man ihre Stimme kopiere, erklärte neulich die Sängerin Grimes – wenn sie zu 50 Prozent an den Einnahmen beteiligt werde. Nur verletzende Songtexte oder politische Statements wolle sie nicht in ihrer eigenen Stimme hören. Auch der DJ David Guetta sagte gegenüber dem Sender BBC: „Die Zukunft der Musik ist KI“. Jeder neue Musikstil werde von neuer Technologie getrieben.
Aus der Welt zu bekommen ist die Technologie nicht mehr. Damit steht die Musikindustrie nun an einem ähnlichen Punkt wie beim Boom der Musiktauschbörse Napster, die illegale Kopien von Songs zum Massenphänomen machte. Digitale Downloads und das Musik-Streaming waren die Rettung. Nun ist die nächste Revolution da. KI offensiv selbst einzusetzen anstatt es erst jahrelang zu blockieren, könnte ein strategisch schlauer Zug sein.
Lesen Sie auch: Mehr als 500 Start-ups in Deutschland entwickeln künstliche Intelligenz. Das sind die aussichtsreichsten KI-Start-ups.