KI-generierte Bilder können dazu führen, dass man gefälschte Inhalte für Originale hält. Deshalb hat OpenAI, der Entwickler von ChatGPT, ein Tool entwickelt , das feststellen kann, ob ein Bild mit DALL-E 3, dem von ihnen entwickelten Algorithmus zur Bildgenerierung, erstellt wurde.
Am Dienstag bot OpenAI Nutzern erstmals die Möglichkeit, ein Bilderkennungstool mit Basis- und optimierten Modellen zu testen. Ziel ist es, Forschern die Möglichkeit zu geben, die Zuverlässigkeit, den Nutzen, die Anwendungsmöglichkeiten und die Faktoren, die KI-generierte Inhalte beeinflussen könnten, zu untersuchen.
Erfolgsquote und Tests des Tools
OpenAI hat das Tool intern getestet. Die Ergebnisse waren in mancher Hinsicht vielversprechend, in anderer Hinsicht jedoch sehr enttäuschend. Bei der Auswertung der von DALL-E 3 erzeugten Bilder wurden 98 % korrekt dargestellt. Darüber hinaus wurden Bilder, die nicht von DALL-E 3 stammen, nur in 0,5 % der Fälle fälschlicherweise DALL-E 3 zugeordnet.
OpenAI konnte keine Bildmodifikation mit nur geringfügig signifikanten Unterschieden feststellen. Das interne Team testete das Tool, indem es das mit DALL-E 3 erstellte Bild komprimierte, zuschnitt und die Farbsättigung veränderte. Dabei stellte sich heraus, dass das Tool weiterhin gute Ergebnisse erzielte.
Herausforderungen und Einschränkungen
Leider war das Tool bei stark bearbeiteten Bildern nicht sehr effektiv. Der Artikel von OpenAI lässt offen, wie viele Modifikationen in den beschriebenen Fällen vorgenommen wurden, und es heißt dort, dass „weitere Modifikationen die Leistung beeinträchtigen können“
In einem Interview mit dem Wall Street Journal erklärte die Forscherin Sandhini Agarwal, dass das Tool in Situationen wie der Änderung des Farbtons von Bildern weniger effektiv sei und ein Abonnement erfordere. Wie Agarwal erwähnte, werde OpenAI zur Behebung dieser Probleme externe Tester in das System einbeziehen.
Darüber hinaus stellten interne Tests die Fähigkeit des Tools infrage, Bilder zu analysieren, die mit KI-Modellen anderer Unternehmen erstellt wurden. In solchen Fällen konnte das Tool von OpenAI nur 5 bis 10 % der Bilder im Vergleich zu anderen Modellen erkennen. Auch Bildmodifikationen wie Farbtonänderungen verringerten die Effizienz deutlich, erklärte Agarwal gegenüber dem Journal.
KI-generierte Bilder sind nicht nur künstlich, sondern bergen in diesem Wahljahr auch Probleme. Verärgerte Gruppen im In- und Ausland können solche Fotos leicht nutzen, um einen aufstrebenden Politiker oder ein Anliegen zu diskreditieren. Angesichts der ständigen Weiterentwicklung von KI-Bildgeneratoren verschwimmt die Grenze zwischen Realität und Fiktion immer mehr.
Branchenweite Übernahme
OpenAI hingegen strebt an, KI-Bildmetadaten mit Wasserzeichen zu versehen, sobald Unternehmen der User Value Organization (UVG) beitreten. Die C2PA ist eine Initiative der Technologiebranche, die technische Standards zur Offenlegung der Inhaltsquelle und ihrer Authentizität durch sogenannte Wasserzeichen festlegt. Der Facebook-Konzern Meta gab Anfang des Monats bekannt, dass seine KI ab Mai dieses Jahres gemäß dem C2PA-Standard entsprechend gekennzeichnet wird.

