Meta, ehemals bekannt als Facebook, hat eine erweiterte Richtlinie vorgestellt, um den Herausforderungen im Zusammenhang mit der Verbreitung von KI-generierten Inhalten auf seinen Plattformen, darunter Facebook, Instagram und Threads, zu begegnen.
Angesichts des zunehmenden Einsatzes generativer künstlicher Intelligenz (KI) wird das Unternehmen künftig Warnhinweise auf KI-generierten Bildern anbringen, um Nutzer über deren künstlichen Ursprung zu informieren. Obwohl dieser Schritt positiv bewertet wird, bestehen weiterhin Bedenken hinsichtlich seiner Wirksamkeit im Kampf gegen böswillige Akteure und der Grenzen der Technologie.
Warnhinweise auf KI-generierten Bildern
Metas jüngste Richtlinienänderung sieht vor, KI-generierte Bilder – unabhängig davon, ob sie mit eigenen KI-Tools oder von anderen Unternehmen erstellt wurden – mit Hinweisen auf ihren künstlichen Charakter zu versehen. Diese Maßnahme soll das Risiko der Verbreitung von Fehlinformationen und Desinformationen durch als echte Fotos ausgegebene KI-generierte Bilder verringern.
Meta kennzeichnet von seiner KI erzeugte Bilder als „Mit KI erstellt“, vor allem durch diedentdes digitalen Wasserzeichens, das von seinen Algorithmen in das Ergebnis eingebettet wird.
Herausforderungen und Einschränkungen
Trotz Metas Engagement für die Implementierung dieser Warnhinweise bestehen weiterhin erhebliche Herausforderungen. Eine besonders wichtige Herausforderung ist, dass viele KI-Bildgenerierungswerkzeuge ihre Ergebnisse nicht mit einem Wasserzeichen versehen, wodurch es Angreifern leicht gemacht wird, KI-generierte Inhalte zu manipulieren und unbemerkt zu verbreiten.
Darüber hinaus befindet sich die Technologie zur zuverlässigen Erkennung und Kennzeichnung von KI-generierten Bildern noch in der Entwicklung, und es existiert kein allgemein anerkannter Standard.
Die von Adobe gegründete Coalition for Content Provenance and Authenticity (C2PA) hat versucht, die Bemühungen von Unternehmen im Bereich der Inhaltsherkunft zu koordinieren. Die bisher entwickelte Technologie ist jedoch nicht narrensicher.
Forscher haben gezeigt, wie einfach Wasserzeichen entfernt oder nicht-KI-generierten Bildern hinzugefügt werden können, wodurch deren Wirksamkeit beeinträchtigt wird.
Hany Farid, Professor an der UC Berkeley School of Information und Berater der C2PA-Initiative, warnt davor, dass böswillige Akteure KI-Tools verwenden könnten, die ihre Ergebnisse nicht mit einem Wasserzeichen versehen, um die Nutzer noch weiter zu täuschen.
Er schlägt vor, dass eine Kombination vondent, wie etwa Wasserzeichen und Hash-basierte Technologien, notwendig sein könnte, um KI-generierte Inhalte zuverlässig zudent. Wasserzeichen sind für KI-generierte Medien jenseits von Bildern, wie Audio und Video, weniger ausgereift.
Ausweitung der Richtlinien und der Aufsicht
Metas neue Richtlinien stellen zwar einen Fortschritt im Kampf gegen Falschmeldungen dar, beschränken sich aber nicht auf KI-generierte Inhalte. Der Aufsichtsrat des Unternehmens, bestehend ausdent Experten, bestätigte kürzlich Metas Entscheidung, ein Video vondent Joe Biden online zu lassen, das so bearbeitet worden war, dass es einen irreführenden Eindruck erweckte.
Diese Entscheidung unterstreicht die Notwendigkeit für Meta, seine Regeln für „manipulierte Medien“ zu überarbeiten und zu erweitern, sodass sie mehr als nur KI-generierte Inhalte umfassen.
Meta-Sprecher Kevin McAlister räumt die Notwendigkeit eines umfassenderen Ansatzes ein und erklärt: „Während Unternehmen damit beginnen, Signale in ihre Bildgeneratoren einzubeziehen, haben sie noch nicht damit begonnen, sie in KI-Tools zu integrieren, die Audio und Video im gleichen Umfang erzeugen.“
Meta arbeitet daher an der Integration einer Funktion, mit der Benutzer angeben können, wenn sie KI-generierte Videos oder Audiodateien teilen, damit entsprechende Kennzeichnungen angewendet werden können.

