"Künstliche Intelligenz wird Musiker nicht ablösen"
Dieser Artikel ist älter als ein Jahr!
Jovanka v. Wilsdorf ist professionelle Songwriterin bei Bmg Rights Management. Mit ihrer Band Quarks veröffentlichte sie 5 Alben auf SONY und tourte durch Europa, bevor sie als Artist Coach und Production Consultant mit Plattfirmen zu arbeiten begann. Jetzt organisiert sie den ersten Songwriting-Wettbewerb mit künstlicher Intelligenz (KI). Mit der futurezone sprach sie über die Zusammenarbeit von KI und Musikern.
futurezone: Sie beschäftigen sich mit künstlicher Intelligenz (KI) und Kreativität. Ist Musik, die von Maschinen produziert wird, besser oder anders?
Jovanka v. Wilsdorf: Das kommt darauf an, wie man bessere Musik definiert. Menschen reiben sich an Begriffen auf. Sie ist nicht besser, aber anders. Sie ist genauso unterschiedlich, wie die von Menschen.
Was machen Sie selbst mit KI?
Ich wurde 2014 von Universal mit Ihrer Idee engagiert, einen virtuellen Popstar zu erschaffen. Das war noch zu früh damals, aber das Thema hat mich nicht mehr losgelassen. Derzeit sind wir mit der Factory Berlin und dem Riverside Studio dabei, einen neuen virtuellen Künstler zu kreieren im Dialog Mensch und KI. Außerdem organisiere ich gerade „DIANA“, den ersten KI-Songwriting-Contest mit angeschlossener Award-Show. Ich möchte Kreative begeistern, um den Dialog zwischen Musiker und KI aktiv zu befördern. Wir suchen derzeit noch Musiker, die mitmachen möchten.
Sie halten regelmäßig sogenannte „Listening Sessions“ ab wie etwa am Freitag beim Elevate Festival, bei denen Sie Menschen raten lassen, ob ein Werk von einer Maschine oder einem Menschen geschaffen wurde.
Die Konfusion bei den Menschen ist meistens groß. Das ist aber bewusst so erzeugt von mir. Es geht mir darum, dass sich Menschen bewusst auf diesen Prozess einlassen.
Kann man den Unterschied überhaupt noch erkennen?
Im Bereich Filmmusik ist es mittlerweile wahnsinnig schwer einen Unterschied zu erkennen, sobald eine Komposition von einem echten Orchester gespielt wird. Wenn es hingegen um Kontext geht, also eine Songstruktur und die Verbindung von emotionalen Melodien mit einem Text ist KI noch nicht weit und steckt in den Kinderschuhen.
Soll KI künftig den Menschen beim Musikmachen ablösen, oder ergänzen?
Wenn man das große Gesamtbild betrachtet: Ergänzen. Ablösen wird eine KI den Menschen alleine deshalb nicht, weil der Drang, Musik zu machen, ist so alt wie der Mensch. Allerdings kommt es bei Musik für Werbung oder Filmen bereits jetzt zu einer Zunahme von KI-generierter Musik.
Das heißt, Künstler werden von Maschinen abgelöst, wenn es um Werbeaufträge geht?
Man wird Künstlerin aus Dringlichkeit und nicht, weil einen jemand dafür anstellt. Es kann aber sein, dass das Einkommen vieler Künstler durch KI extrem bedroht wird, weil diesen die Lebensgrundlage entzogen wird. Wenn das passiert, fehlt es langfristig auch an einem breiten Spektrum an Künstlern.
Das heißt, im Musikbereich sind Jobs durch KI bedroht?
Der Bereich der Gebrauchsmusik – Film, Theater, Video-Content, Werbung – ist hier stark gefährdet. Bis vor kurzem war alles von echten Musikern gemacht. Allerdings was es braucht sind Menschen, die keine Angst davor haben, mit einer KI zu arbeiten. Ich möchte Kreative dafür begeistern, um bei der Entwicklung mitzuhelfen.
Wie können Menschen beim Musikmachen mit Maschinen abseits von Gebrauchsmusik am besten zusammenarbeiten?
Das hängt stark davon ab, was für ein Ergebnis rauskommen soll. KI kann eine tolle Ideengeberin sein, ein Dialogpartner, eine Assistentin. Die KI Vochlea ist beispielsweise ein grandioses Tool, um intuitiv im Studio zu arbeiten. Man kann damit schnell Demos produzieren und für mich ist es eine unheimliche Unterstützung. Eine KI kann einen auch rausreißen aus bekannten Denkmustern, aus seiner eigenen Bubble.
Wie wirkt sich der Einsatz KI auf die Kreativität von Menschen aus?
Die Gefahr ist, dass Menschen Abkürzungen lieben. Allerdings bringt es keine Befriedigung, wenn man nur auf einen Knopf drücken muss, um einen Song in einer halben Stunde fertig zu machen. Das wächst einem nicht ans Herz. Ich glaube, dass es Zeit brauchen wird und Menschen erst lernen müssen, mit den neuen Möglichkeiten umzugehen. Synthesizer und Sampler galten auch als Kreativitätskiller, sind jetzt aber nicht mehr wegzudenken.
Bei Autoren gibt es bereits eine KI-Lösung, die prüft, ob ein Werk Bestseller-Qualitäten hat. Gibt es ähnliche Tools bereits für Musik-Hits?
Da wird bestimmt daran gearbeitet, es ist aber soweit ich weiß noch nicht im Einsatz. Aber algorithmisch betriebene Playlists bestimmen schon längst unsere Vorauswahl beim Musikhören. Algorithmen - beziehungsweise die davon beinflussten Klickzahlen - beeinflussen auch die Menschen, die Entscheider sind. Um zu schätzen, was ein guter Song oder Hit wird, braucht man aber viel Kontext – und aus meiner Sicht sind das zu viele Parameter für eine KI.
Wie sieht es mit dem Urheberrecht aus, wenn ein Werk in Symbiose mit einer KI geschaffen wurde?
Das hängt davon ab, mit was das Netzwerk gefüttert und trainiert wurde und wie die KI arbeitet. Mit Aiva gibt es bereits die erste KI, die bei einer Urheberrechtsgesellschaft angemeldet ist. Diese wurde nicht mit Musik trainiert, sondern hat sich ihre Fähigkeiten angeeignet, in dem sie über 30.000 Partituren von einigen der größten Komponisten der Musikgeschichte gelesen hat. Amper Score füttert die Netzwerke von vornherein nur mit selbsterzeugter Musik. Wenn man Amper Score verwendet, schließt man eine weltweite Lizenz ab, um die erzeugte Musik verwenden zu können.
Bis zum 9. März sind noch Einreichungen für den ersten KI-Songwriting-Contest DIANA möglich. Ziel sind inspirierte Kollaborationen, die in einer eigenen Award Show präsentiert werden. DIANA wurde konzipiert von Jovanka v. Wilsdorf, produziert von Ralph Christoph, Jovanka v. Wilsdorf und Karla König, präsentiert von der c/o Pop Convention Cologne und Factory Berlin und gefördert von der Stadt Köln. Die Gewinner werden am 25. April 2020 gekürt.
Kommentare