KI in der Musikindustrie: Agnes Chung im Gespräch
Viele glauben, dass Künstliche Intelligenz Musiker:innen mehr schadet als nutzt. Agnes Chung ist da optimistischer: Sie ist die Co-Founderin von musicube, einem Start-up, das Musiksuche mit KI revolutionierte. Die Vision von musicube war nichts Geringers, als die Filterblasen bei der Musikauswahl zu sprengen, damit nicht immer die gleichen Songs angeboten werden. Ein echter Gamechanger für Künstler:innen, Nutzter:innen und die Musikindustrie. Dafür hat das Team von Musik- und Datenwissen-schaftler:innen eine KI entwickelt, die jede Frage nach einer bestimmten Art von Musik mit den richtigen Songs beantworten kann. Die Musikstücke werden so verschlagwortet und mit Metadaten angereichert, dass man nach Titeln, Wiedergabelisten und Künstlern auf der Grundlage von Zielgruppen, Stimmungen, Genres, Gesangsmerkmalen, Instrumenten, Tempo und vielem mehr suchen kann. Die Idee funktionierte und Musicube startete durch.
Unsere Wege haben sich 2022 gekreuzt, als sich das musicube-Team für ein EU-Förderprogramm beworben hat und ich im Auswahlkomitee für die Projekte saß. Musicube schaffte es ins Programm, doch dann passierte, wovon man als Gründerin träumt: Der amerikanische Marktführer Songtradr übernahm musicube und damit war eine europäische Förderung nicht mehr möglich – und auch nicht mehr nötig.
Heute arbeitet Agnes im Strategie-Team von Songtrader und kümmert sich um die nächsten Innovationen im Musikbusiness. Zu unserem Interview schaltet sich Agnes aus Hawaii zu, wo sie gerade ein paar Wochen Workation eingelegt hat, und begrüßt mich mit einem gut gelaunten „Aloha“. Ihr KI-Enthusiasmus ist ansteckend und Agnes sprudelt, wenn sie über Musik und Daten spricht. Normalerweise kürze ich Interviews in der Nachbereitung und konzentriere mich auf wenige Aspekte. Dieses Mal fällt es mir schwer, weil alle Themen so spannend sind und wegweisend für andere Bereiche der Kreativbranche. Macht Euch gefasst auf einen lesenswerten Long Read über KI in der Musikindustrie und wie auch Künstler:innen davon profitieren können. Es geht um Kreativität, Geschichten und Gefühle, um Urheberrechte und Datenausbeutung und schließlich um die Frage, was uns als Nutzer:innen Musik wert ist, wenn wir nicht mehr bereit sind, dafür zu zahlen.
Tanja Deuerling: Du beschreibst Dich selbst als “Music Innovation Enthusiast”. Warum?
Agnes Chung: Also Musik, weil ich schon immer für die Musikindustrie gearbeitet habe. Und Innovation durch das ganze Startup-Ding. Total spannend finde ich immer, was für tolle neue und manchmal auch abgedrehte, verrückte Ideen mit KI auf den Markt kommen. Ich teste einfach alles aus und habe da einen sehr spielerischen Umgang. Das ist die Enthusiastin in mir. Ohne die hätte ich Musicube nicht mitgegründet. Sonst hätte ich mich nicht darauf eingelassen, einen Job zu verlassen, bei dem ich wusste, was ich kriege und was ich habe, um zu sagen: komm, wir experimentieren mal mit Musik und Daten. Music Innovation Enthusiast – das ist ein Stück weit meine Persönlichkeit.
Tanja: Du hast als Gründerin schon mit KI gearbeitet, da war KI noch lange nicht so gehypt.
Wie können wir Künstler:innen finden, die wir nicht kennen, die aber vielleicht genau unseren Musikgeschmack treffen?
Agnes: Nee, gar nicht! Wir sind mit der Vision gestartet, die Musiksuche besser zu machen. Wie können wir Künstler:innen finden, die wir nicht kennen, die aber vielleicht genau unseren Musikgeschmack treffen? Zuerst haben wir uns gesagt: Wir müssen alle Mitwirkenden von einem Song für die Suche miteinbeziehen, ob es jetzt die Künstler:in selbst ist oder alle anderen Mitwirkenden wie Komponist:innen, Autor:innen und so weiter. Die Frage war: Kann ich bei der Suche auf Basis dieser Metadaten ähnliche Titel finden, die ich auch gut finde und dadurch zu neuen Künstler:innen kommen? Dann haben wir uns gefragt, ob das alleine reicht, denn da muss man wieder die Namen wissen: Wie heißt der Produzent? Wie heißt der Komponist? Wie heißt die Texterin? Und deswegen kamen wir dann drauf, die Songs nach Stimmung zu verschlagworten, nach ihren Eigenschaften: was ist die BPM, welche Singstimme ist dabei, welche Instrumente und so weiter. Und irgendwie dachten wir: Das sind ja schon ganz schön viele Daten! Lasst uns das doch mal mit einer KI probieren. Lasst uns ein neuronales Netz aufbauen, was wir trainieren und gucken, ob das in der Lage ist, Songs so zu verschlagworten, wie wir uns das vorstellen, und aufgrund dieser Verschlagwortung eine Suche ermöglichen, die dann heißt: Ich brauche heute einen happy Song mit einer Frauenstimme und einem Klavier. Und als Ergebnis kommt eine Playlist heraus, die genau diese Songs beinhaltet.
Tanja: Und es hat funktioniert!
Agnes: Genau, es hat funktioniert (lacht). Und dann platzt nämlich die Filter-Bubble, die wir alle haben, wenn es um das Musikhören geht. Spotify hat über 80 Millionen Songs. Ich hatte damals 2000 Songs in meiner Playlist. Das ist ein Bruchteil von dem, was da eigentlich stattfindet. Was ich empfohlen bekommen habe, hat selten gepasst. Entweder kannte ich den Song schon oder fand ihn nicht gut. Und jetzt habe ich die Möglichkeit zu sagen: Nee, ich suche jetzt mal einen Song aufgrund von Eigenschaften, aufgrund von der Stimmung, nach der mir gerade ist.
Tanja: Deine Vision macht für mich den Eindruck: Das ist die gute Seite von KI für alle, die Musik machen und mögen. Auch unbekannte Künstler:innen werden auffindbar, und als Nutzer:in hat man einfach die Möglichkeit, Sachen jenseits des Mainstreams zu finden. Wenn ich mir aber die generative KI anschaue, die selbst Musik macht und sich einfach aus Bestehendem bedient, dann schreien Künstler:innen wahrscheinlich nicht „Hurra“, wenn sie das Wort KI hören. Wie sind da Deine Erfahrungen?
Künster:innen können durch KI ihre Genregrenzen aufweichen und noch mal neue Musik entdecken und auf neue Ideen kommen. Für sie ist KI einfach ein neues Musikinstrument.
Agnes: Ich habe viel mit Künstler:innen gesprochen, die KI als Werkzeug benutzen und das richtig gut finden. Sie können dadurch ihre Genregrenzen aufweichen und noch mal neue Musik entdecken und auf neue Ideen kommen. Für sie ist KI einfach ein neues Musikinstrument, so wie damals der Drumcomputer. Da war ja der Schrei auch groß: Oh Gott, wir brauchen nie wieder Schlagzeuger auf der Bühne! Ja, weit gefehlt. Die sind immer noch da, und zwar immer lieber als der Drumcomputer. Aber natürlich ist der eine Unterstützung.
Tanja: Aber KI wird auch in der Musikindustrie immer mehr Sachen übernehmen.
Wir Menschen nutzen die Musik, um unsere Geschichten und Gefühle zu erzählen. Eine KI kann das nicht. Die KI kann nur Geschichten oder Gefühle kopieren, die ihr mal beigebracht worden sind. Aber es werden daraus keine neuen Geschichten entstehen.
Agnes: Ich glaube, der ganze Production-Music-Background-Bereich wird stärker betroffen sein. Damit meine ich die Aufzug-Musik oder die Hintergrundmusik im Supermarkt. Das ist etwas anderes als ein Künstler, eine Künstlerin, die wirklich Songs schreibt und Geschichten damit erzählt. Wir Menschen nutzen die Musik, um unsere Geschichten und Gefühle zu erzählen. Eine KI kann das nicht. Die KI kann nur Geschichten oder Gefühle kopieren, die ihr mal beigebracht worden sind. Aber es werden daraus keine neuen Geschichten entstehen. Also zumindest nicht mit der Seele, die einen Song hat, die Musikwissenschaftler:innen immer zu erklären versuchen: Warum berührt uns Musik? Und warum berührt dich andere Musik als mich? Ich denke, dass KI jetzt einfach ein Hype ist, weil die Mittel da sind.
Tanja: Wie meinst Du das?
Agnes: Jetzt sind alle bereit zu investieren und rumzuspielen und zu experimentieren. Das wird sich mit der Zeit auch wieder legen. Dann wird das alles teurer werden. Dann werden die Serverkapazitäten knapp und die Preise ziehen an. Ich glaube, dann wird sich das auf Tools reduzieren, die man ernst nehmen kann. Da muss man sich überlegen: Was ersetzen die KI gerade oder wie gehe ich damit als Künstler:in um. Ich sehe da nicht unbedingt eine Gefahr. Für mich ist und bleibt KI immer ein Werkzeug, bei dem wir entscheiden, ob wir es nutzen. Und weil immer ein Mensch hinter einer KI steht und die KI entwickelt und trainiert. Wir sind noch nicht bei der Super-KI angekommen, die von allein von null auf alles lernt und alles kann.
Jetzt sind alle bereit zu investieren und rumzuspielen und zu experimentieren. Das wird sich mit der Zeit auch wieder legen. Dann wird das alles teurer werden. Dann werden die Serverkapazitäten knapp und die Preise ziehen an.
Tanja: Nochmal zurück zu den Künstler:innen. Meine These ist ja, dass Kunst bleibt, weil Kunst diese Ausdrucksform von Mensch zu Mensch ist. Und KI ist halt kein Mensch. Aber alles, was man mit mittelmäßiger Kreativität macht, was ja auch eine Berechtigung hat, das kann KI übernehmen. Wenn ich Dich richtig verstehe, trifft das auch auf Musikbereich zu?
Agnes: Genau, genau. Ich glaube, dass die KI einfach gnadenlos alles glattbügelt, was geht. Am Ende wird es immer eine Kostenfrage sein: Zahle ich zum Beispiel für Hintergrundmusik oder nicht? Andererseits, wenn ich an Musik im Film denke, wird es trotzdem den Komponisten oder die Komponistin geben, die dem Film noch den letzten Touch geben kann. Ich glaube, es ist dann die High-end-Qualität, für die man bezahlt.
Tanja: Ist KI eher ein Instrument, den Mainstream stark zu machen? Oder ist sie etwas, wo man sagt, da kann mehr Kunst entstehen, weil die Künstlerinnen mehr Zeit haben, weil die KI ihnen so viel an Basisarbeit abnimmt?
Agnes: Ich wünsche mir Letzteres (lacht). Eine gute Frage tatsächlich. Wenn ich an unsere KI denke, die ist ganz viel mit Indie Material trainiert worden und hat nicht nur Mainstream drin. Ich würde mir als Ideallösung wünschen, dass eine KI diese Bewertung gar nicht macht. Das sind ja menschgemachte Kategorien. Ein KI-System sagte jetzt nicht: Nee, du bist ja Indie-Künstler, deswegen kenne ich dich nicht. Das ist das Schöne an KI.
Tanja: Dass KI nicht wie ein Mensch bewertet?
Agnes: Genau. Wir haben die Trainingsdaten bei musicube selbst erstellt, dafür musste ich Songs selbst verschlagworten. Ich habe gemerkt, wie subjektiv das alles ist! Ob ich den Text verstehe, oder ob ich den Text nicht verstehe. Höre ich den Song morgens, wenn ich eigentlich ein Morgenmuffel bin, oder höre ich ihn nachmittags, wenn ich Energie brauche. Ich hätte ihn dann teilweise sehr unterschiedlich verschlagwortet. Wenn ich einen ganzen Katalog für einen Musikverlag mache, der darauf angewiesen ist, dass er richtig verschlagwortet wurde, dann wünsche ich mir eine KI, die objektiv ist. Da gibt es kein morgens und abends, und heute bin ich schlecht drauf, und morgen geht es mir aber besser, oder ich verstehe den Text nicht, sondern da geht es nur um die musikalische Komponente. Da ist die Objektivität einer KI doch sehr wünschenswert.
Tanja: Was rätst Du Künstler:innen in Sachen KI?
Wir haben leider ein mittleres bis großes Datenchaos. Wenn ein Song zehn unterschiedliche Datensätze hat, hilft das beim Thema Urheberschaft leider auch nicht weiter. KI wirft dann die Frage auf, warum wir Metadaten generell so vernachlässigt haben.
Agnes: Experimentieren, sich auf das Neue einlassen und gucken, ob man damit was anfangen kann oder nicht. Wenn man es nicht kann, ist das auch in Ordnung. Dann kann man weiterhin so Musik machen, wie man Musik gemacht hat. Aber ganz wichtig: Am Ende immer die Metadaten gut pflegen, also immer angeben, wer ist Künstler:in, wer sind alle Mitwirkenden, weil man nur so kann am Ende sicherstellen kann, dass die Daten konsistent sind und dann eine Zuordnung passieren kann. Wir haben leider ein mittleres bis großes Datenchaos. Wenn ein Song zehn unterschiedliche Datensätze hat, hilft das beim Thema Urheberschaft leider auch nicht weiter. KI wirft dann die Frage auf, warum wir Metadaten generell so vernachlässigt haben. Es sind am Ende die Daten, die KI trainieren, und die Daten erstellen nun mal wir und nicht die KI.
Tanja: Du sprichst das Thema Urheberschaft an. Eine große Frage für Künstler:innen ist: Wie kann ich mein geistiges Eigentum schützen? Auf der einen Seite, dass generative Systeme damit gefüttert werden, auf der anderen Seite, dass jemand einfach Plagiate erstellt. Wie glaubst du, kann man das gut regeln?
Agnes: Schwierig. Natürlich kann man als Label oder als Künstler:in sagen: Ich will nicht, dass KI damit trainiert wird. Aber ganz verhindern lässt sich das nicht, so wie Musik konsumiert wird, nämlich einfach frei, über YouTube zum Beispiel. Da kannst du nichts mehr hinter einer Wall stecken und sagen: Nee, dürft ihr nicht. Du kannst dir die Mühe machen und jedes Mal hinterherrennen, aber weiß ich denn, welche KI mit welchen Trainingsdaten gefüttert wird? Es geht in diesen ganzen KI-Regulierungen auch darum, dass man als KI-Entwickler:in offenlegt, mit welchen Trainingsdaten man trainiert hat. Das ist, glaube ich, ein guter Schritt, aber der muss sich auch erst mal global durchsetzen. Ob dann wirklich jedes Land mitspielt? Schwierig. Ich würde mir wünschen, dass KI Entwickler:innen sich selbst in der Verantwortung sehen und sagen, okay, ich achte darauf, dass ich Daten lizenziere, dass ich für Daten, mit denen ich trainiere, bezahle, damit die, die diese Daten erstellt haben, auch Geld dafür kriegen.
Tanja: Ziemlich optimistisch …
Das haben wir tatsächlich ein bisschen verschlafen. Das System KI gibt es seit über 60 Jahren. Es ist ja nicht plötzlich vom Himmel gefallen. Aber es wurde verpasst, da irgendwas zu regulieren.
Agnes: Das haben wir tatsächlich ein bisschen verschlafen. Das System KI gibt es seit über 60 Jahren. Es ist ja nicht plötzlich vom Himmel gefallen. Aber es wurde verpasst, da irgendwas zu regulieren. Bis jetzt ist schon alles einmal durchgefüttert. Deswegen kann man nur schauen, wie wir das Beste draus machen.
Tanja: Und wie?
Agnes: Das gibt es so viele Fragen zu klären: Was ist uns der kreative Output wert, den wir konsumieren? Warum hören so viele Leute kostenfrei Musik ? Warum bezahlt dafür keiner mehr? Auf Plattformen wird zwar Werbung eingeblendet und man zahlt mit Aufmerksamkeit, aber das Geld fließt ja nicht an die Künstler:innen. Die ganze Diskussion könnte auch dazu führen, ein zentrales Ökosystem zu schaffen. Wie können unbekannte Künstler:innen zu ihrem Einkommen kommen, wenn sie nicht die 1000-Stream-Grenze bei Spotify erreichen? Was ist uns der Song als Hörer:innen wert? Was möchte ich bezahlen? Warum gibt es so viele Free-Versionen? Warum nehme ich Werbung hin? Früher bin ich in den Laden gegangen und habe die CD gekauft und habe schon mal gemeckert, weil die teuer war. Aber dann habe ich gespart, weil ich sie unbedingt haben wollte. Das ist nicht nur mit Musik so, sondern mit allem, mit Büchern, mit Kunst, mit Grafikgeschichten und so. So vieles ist im Netz frei verfübar. Also, das haben wir verschlafen. Und jetzt im Nachhinein regeln, das ist ein gutes Stück Arbeit.
Tanja: Letzte Frage: Machst du eigentlich selbst Musik, Agnes?
Agnes: Ich mache Musik, aber ich bin mehr die klassische Instrumentespielerin. Ich spiele Klavier und Oboe im Orchester, eher weniger in Bands.
Tanja: Danke, Agnes, und Aloha.
Agnes Chung arbeitet seit über 15 Jahren in der Musikindustrie (u.a. bei PHONONET und MPN). Sie hat Musikwissenschaft und Informatik studiert und im Dezember 2019 das Startup musicube gegründet, um die Musiksuche mit KI zu revolutionieren. Heute gehört musicube zum US-Unternehmen Songtradr, wo Agnes im Innovations- und Strategieteam arbeitet. Diese Position ermöglicht es ihr, ihre Neugierde nachzugehen und kontinuierlich neue Ideen und Technologien zu entdecken.