Im Zeitalter, in dem künstliche Intelligenz die Grenzen des technologischen Fortschritts immer weiter verschiebt, entsteht eine neue Zusammenarbeit zwischen Künstlern und Universitätsforschern, um das geistige Eigentum kreativer Köpfe zu schützen. Die jüngste Erfahrung der US-amerikanischen Illustratorin Paloma McClain mit unautorisierter KI-Kopie ihrer Werke hat in der Kunstszene eine proaktive Reaktion ausgelöst und zu innovativen Softwarelösungen geführt, die KI-gesteuerte Nachahmung verhindern sollen.
Die in den USA lebende Illustratorin Paloma McClain geriet ins Visier der KI-gestützten, unerbittlichen Versuche, kreative Werke zu kopieren. Mehrere KI-Modelle hatten ohne ihr Wissen und ihre Zustimmung mit ihren Illustrationen trainiert, sodass sie weder Anerkennung noch eine angemessene Vergütung erhielt. McClain, eine überzeugte Verfechterin ethischen technologischen Fortschritts, äußerte ihre Bedenken: „Ich glaube, dass wirklich sinnvoller technologischer Fortschritt ethisch einwandfrei gestaltet sein muss und allen Menschen zugutekommt, anstatt auf Kosten anderer zu gehen.“
Angesichts des zunehmenden Problems der KI-Imitation wandte sich Paloma McClain an Glaze, eine revolutionäre, kostenlose Software, die von Forschern der Universität Chicago entwickelt wurde. Glazes Hauptfunktion besteht darin, KI-Modelle während ihres Trainingsprozesses auszutricksen, indem es Pixel auf subtile Weise manipuliert, die für das menschliche Auge unsichtbar bleibt, und gleichzeitig das Erscheinungsbild digitalisierter Kunstwerke für KI-Algorithmen drastisch verändert.
Schutz der menschlichen Schöpfer
Professor Ben Zhao, ein Schlüsselmitglied des Glaze-Entwicklungsteams, unterstrich deren Mission: „Wir stellen technische Werkzeuge bereit, um menschliche Kreative vor invasiven und missbräuchlichen KI-Modellen zu schützen.“ Die in nur vier Monaten entwickelte Software basiert auf einer Technologie, die ursprünglich zur Störung von Gesichtserkennungssystemen konzipiert wurde. Zhao betonte die Dringlichkeit der Situation: „Wir haben mit Hochdruck gearbeitet, weil wir wussten, wie gravierend das Problem ist. Viele Menschen litten darunter.“
Während einige führende Anbieter generativer KI formale Vereinbarungen zur Datennutzung getroffen haben, wird ein erheblicher Teil der zum Training der KI verwendeten Daten – darunter digitale Bilder, Audio- und Textdateien – ohne ausdrückliche Einwilligung aus dem Internet gesammelt. Diese Praxis wirft kritische Fragen hinsichtlich des ethischen Einsatzes von KI und der Rechte an geistigem Eigentum auf.
Seit seiner Veröffentlichung im März 2023 hat Glaze mit über 1,6 Millionen Downloads eine weite Verbreitung gefunden und damit die Dringlichkeit des Bedarfs an Werkzeugen zum Schutz von Künstlern vor KI-Kopien verdeutlicht. Das Glaze-Team entwickelt derzeit die Erweiterung Nightshade, die KI zusätzlich verwirren soll, indem sie deren Interpretationen verzerrt – beispielsweise indem sie einen Hund als Katze wahrnimmt.
Paloma McClain befürwortete Nightshade und hob dessen Potenzial hervor, bei breiter Anwendung einen bedeutenden Einfluss auszuüben: „Laut Nightshades Forschung bräuchte es gar nicht so viele manipulierte Bilder, wie man vielleicht annehmen würde.“ Mehrere Unternehmen haben sich bereits an Zhaos Team gewandt, um den Einsatz von Nightshade zu prüfen, was dessen Bedeutung für den Schutz sowohl einzelner Künstler als auch von Organisationen mit umfangreichem geistigem Eigentum unterstreicht.
Kudurru: Verteidigung gegen Bildsammlung
Das von Viva Voce gegründete Startup Spawning leistet mit seiner Software Kudurru einen Beitrag zum Schutz kreativer Werke. Kudurru erkennt Versuche, große Bildmengen aus Online-Quellen zu sammeln, und ermöglicht es Künstlern, den Zugriff zu blockieren oder irreführende Daten bereitzustellen, um den Lernprozess der KI zu stören. Über tausend Websites sind bereits in das Kudurru-Netzwerk integriert.
Spawning hat seine Bemühungen mit dem Start von haveibeentrained.com erweitert, einer Website mit einem Online-Tool, das Künstlern ermöglicht, festzustellen, ob ihre digitalisierten Werke zum Trainieren von KI-Modellen verwendet wurden. Diese Plattform gibt Künstlern die Möglichkeit, zukünftige unautorisierte Nutzung zu unterbinden und bietet ihnen so die dringend benötigte Kontrolle über ihre kreativen Inhalte.
Forscher der Washington University in Missouri haben mit ihrer Software AntiFake einen Ansatz zur Sicherung von Sprachaufnahmen entwickelt. Das Programm reichert digitale Sprachaufnahmen mit unhörbaren Geräuschen an, wodurch es laut Zhiyuan Yu, demdent hinter dem Projekt, „unmöglich wird, eine menschliche Stimme zu synthetisieren“. AntiFake verfolgt jedoch nicht nur das Ziel, unautorisiertes KI-Training zu verhindern, sondern auch die Erstellung von Deepfakes – ein wachsendes Problem im Zeitalter KI-gestützter Desinformation.
Ein Aufruf zu ethischer Datennutzung
Mit der Weiterentwicklung dieser Softwarelösungen bleibt die Diskussion um den ethischen Umgang mit Daten für KI von zentraler Bedeutung. Jordan Meyer, Mitbegründer von Spawning, formulierte das ultimative Ziel: „Die beste Lösung wäre eine Welt, in der alle für KI verwendeten Daten der Einwilligung und Bezahlung unterliegen.“ Befürworter hoffen, Entwickler in diese Richtung zu lenken und Einwilligung und Fairness bei der Nutzung von KI-Daten zu priorisieren.
Zusammenfassend lässt sich sagen, dass die Zusammenarbeit von Künstlern und Forschern die Entwicklung innovativer Softwarelösungen zur Bekämpfung von KI-Imitationen kreativer Werke vorantreibt. Die Softwareplattformen Glaze, Nightshade, Kudurru und AntiFake stellen bedeutende Fortschritte beim Schutz geistigen Eigentums in einer zunehmend KI-gesteuerten Welt dar. Diese Technologien bieten zwar wertvolle Schutzmechanismen, unterstreichen aber auch die Notwendigkeit einer breiteren Diskussion über den ethischen Umgang mit Daten in der künstlichen Intelligenz. Da Künstler und Kreative ihre Rechte weiterhin geltend machen, steht der Zukunft von KI und geistigem Eigentum eine ethischere und ausgewogenere Entwicklung bevor.

