Laut einer Pressemitteilung beider Unternehmen vom Dienstag hat Nvidia eine Partnerschaft mit dem Musikgiganten Universal Music Group geschlossen, um den Einsatz von KI bei der Musiksuche und der Kontrolle der Künstler über ihre Werke zu fördern.
In der Mitteilung hieß es:
„NVIDIA und UMG werden gemeinsame Forschungs- und Entwicklungsarbeiten durchführen, um die gemeinsamen Ziele der Förderung menschlicher Musikproduktion und der Entschädigung von Rechteinhabern zu verfolgen.“
Diese Vereinbarung folgt auf den Rechtsstreit des letzten Jahres mit KI-Musik-Startups. 2024 verklagten Universal, Sony und Warner Suno und Udio wegen Urheberrechtsverletzung. Universal und Warner zogen die Klagen jedoch später zurück und schlossen Partnerschaftsverträge mit Udio. Warner erzielte zudem eine Vereinbarung mit Suno zum Aufbau neuer Plattformen für KI-gestützte Musikproduktion und -streaming.
Laut Pressemitteilung wollen UMG und Nvidia sicherstellen, dass Künstler Anerkennung und Bezahlung erhalten, wenn KI an der Musikproduktion oder -vermarktung beteiligt ist, und versprechen, niemanden zu ersetzen.
Das wichtigste Werkzeug hinter all dem ist Nvidias Music Flamingo-Modell, das auf der Audio Flamingo-Architektur des Unternehmens basiert und ganze Lieder in einer Länge von bis zu 15 Minuten verarbeiten kann, indem es Harmonie, Struktur, Texte und sogar den kulturellen Tonfall analysiert.
Music Flamingo nutzt eine von Nvidia so genannte „Gedankenkettenlogik“. Es soll wie ein menschlicher Zuhörer denken, was natürlich auch das Erkennen von Details wie Akkordwechseln oder Tonhöhenveränderungen einschließt, die von herkömmlichen Suchwerkzeugen normalerweise unbemerkt bleiben würden.
Laut Nvidia übertrifft das Modell seine Konkurrenten bereits in mehr als zehn musikspezifischen Benchmarks, darunter Instrumentenerkennung, Liedtexttranskription in mehreren Sprachen und Musikuntertitelung.
Anstatt den Fans immer wieder dieselben Songs mit den Bezeichnungen „Pop“ oder „schnelles Tempo“ vorzuspielen, empfiehlt Music Flamingo den Hörern tracbasierend auf Themen, Emotionen oder sogar kulturellen Ereignissen. Richard Kerris, Vizepräsident für Medien bei Nvidia, sagte dazu:
„Wir treten in eine Ära ein, in der ein Musikkatalog wie ein intelligentes Universum erkundet werden kann; dialogisch, kontextbezogen und wirklich interaktiv.“
Künstler werden neue Tools testen und die KI-Musikfunktionen mitgestalten, so UMG
Es gibt zudem große Bestrebungen, Künstler direkt in den Entwicklungsprozess einzubinden. Universal und Nvidia gründen einen Künstler-Inkubator. Songwriter, Produzenten und Musiker werden neue KI-Tools in realen kreativen Situationen testen.
Sie werden dazu beitragen, die Entwicklung so zu gestalten, dass die Ergebnisse nicht generisch, lieblos oder, wie Universal es nennt, „KI-Schrott“ sind. Der Inkubator wird sich auf Werkzeuge konzentrieren, die Originalität fördern, nicht auf Kopier- und Einfügemaschinen.
Universal hat bereits Erfahrung mit dem Training von Modellen mithilfe der Nvidia-Infrastruktur. Nun wird diese ausgebaut. Das Music & Advanced Machine Learning Lab (MAML) wird weiterhin die Systeme von Nvidia nutzen und dabei sowohl mit internen Teams als auch mit externen Labels, Studios und Verlagen zusammenarbeiten. Zudem werden Rückmeldungen von renommierten Studios wie den Abbey Road Studios in London und den Capitol Studios in Los Angeles eingeholt.
Sir Lucian Grainge, CEO von Universal, bezeichnete diesen Deal als „bahnbrechende strategische Partnerschaft“ und sagte, er verbinde das weltweit führende Technologieunternehmen und das führende Musikunternehmen, um die Entwicklung von KI verantwortungsvoll voranzutreiben.
Nvidia wird außerdem direkt mit den Künstlern von Universal zusammenarbeiten, um Feedback zu neuen Funktionen und Modellen zu erhalten. Dies dient sowohl der Feinabstimmung der Tools als auch der Schaffung besserer Chancen für aufstrebende Künstler, entdeckt zu werden.

