Meta Platforms plant, künstliche Intelligenz zur Bewertung von Datenschutz- und gesellschaftlichen Risiken einzusetzen. Bisher hat das Unternehmen menschliche Gutachter mit der Prüfung der Risiken neuer Produkte und Funktionen beauftragt, doch mit diesem Update wird sich dies ändern.
Laut internen Gesprächen und Dokumenten plant Meta, 90 % aller Risikobewertungen zu automatisieren. Dies bedeutet, dass Aspekte wie kritische Aktualisierungen der Unternehmensalgorithmen, Sicherheitsfunktionen und Änderungen der Inhaltsfreigabe auf den Meta-Plattformen größtenteils von einem KI-gestützten System freigegeben werden. Zudem entfällt die Prüfung dieser Änderungen durch Mitarbeiter, die zuvor mit der Beurteilung möglicher unvorhergesehener Auswirkungen oder Missbrauchspotenziale beauftragt waren.
Meta plant die Umstellung auf ein KI-gestütztes Bewertungssystem
Laut internen Quellen bei Meta wird diese Entwicklung als Vorteil für Produktentwickler gewertet, da sie ihnen ausreichend Zeit für die Veröffentlichung von App-Updates und neuen Funktionen verschafft. Innerhalb des Unternehmens bestehen jedoch weiterhin Bedenken hinsichtlich der Komplexität der Situation. Es wird angemerkt, dass die Nutzung von KI für schwierige Entscheidungen über Meta-Apps zu realen Schäden führen könnte. Diese Bedenken werden sowohl von ehemaligen als auch von aktuellen Mitarbeitern geteilt.
„Insofern dieser Prozess faktisch bedeutet, dass mehr Produkte schneller und mit weniger strenger Prüfung und weniger Widerstand auf den Markt gebracht werden, birgt er höhere Risiken“, sagte ein ehemaliger Manager von Meta, der aus Angst vor Repressalien seitens des Unternehmens anonym bleiben wollte. „Negative Auswirkungen von Produktänderungen lassen sich seltener verhindern, bevor sie Probleme verursachen.“
In einer kürzlich veröffentlichten Stellungnahme gab Meta bekannt, Milliarden von Dollar in den Schutz der Privatsphäre seiner Nutzer investiert zu haben. Das Unternehmen steht seit 2012 unter der Aufsicht der Federal Trade Commission (FTC). Die FTC hat mit Meta eine Vereinbarung über den Umgang mit personenbezogenen Daten der Nutzer getroffen. Ehemaligen und aktuellen Meta-Mitarbeitern zufolge besteht daher seit jeher Bedarf an Datenschutzprüfungen von Produkten.
In ihrer Stellungnahme fügte das Unternehmen hinzu, dass die Änderungen bei der Produktrisikobewertung die Entscheidungsfindung beschleunigen würden. Man setze weiterhin menschliches Fachwissen bei neuartigen und komplexen Fragestellungen ein. Meta gab außerdem an, dass derzeit nur Entscheidungen mit geringem Risiko automatisiert würden. Interne Dokumente, die NPR konnte, zeigen jedoch, dass Meta die Automatisierung von Bewertungen für sensible Aspekte prüft, darunter KI-Sicherheit, Jugendrisiken und eine weitere Kategorie namens Integrität, die unter anderem für Fehlinformationen und gewaltverherrlichende Inhalte zuständig ist.
Im bisherigen System wurden Produkt- und Funktionsupdates zunächst Risikobewertern vorgelegt, bevor sie veröffentlicht wurden. Laut einer Präsentation zum neuen Prozess erhalten Produktteams nun jedoch nach dem Ausfüllen eines Projektfragebogens sofortige Entscheidungen. Die KI-gestützte Entscheidungdentmehrere Risikobereiche und die entsprechenden Maßnahmen. Vor dem Projektstart prüft das Produktteam außerdem, ob alle Anforderungen erfüllt wurden.
Das neue System verdeutlicht, dass die Entwickler von Meta-Produkten die Risiken selbst einschätzen müssen. Laut der Präsentation werden Projekte in bestimmten Fällen, beispielsweise bei neuen Risiken oder wenn ein Produktteam zusätzliches Feedback benötigt, einer manuellen Überprüfung durch Experten unterzogen.
Zvika Krieger, ehemaliger Innovationsdirektor bei Meta (bis 2022), merkte jedoch an, dass Produktmanager und Ingenieure keine Datenschutzexperten seien. „Die meisten Produktmanager und Ingenieure sind keine Datenschutzexperten, und Datenschutz gehört nicht zu ihren Hauptaufgaben. Er ist nicht der primäre Bewertungsmaßstab und wird auch nicht dazu angehalten, diesem Aspekt Priorität einzuräumen“, sagte er. Er fügte hinzu, dass einige dieser Selbsteinschätzungen zu Übungen geworden seien, die wichtige Risiken außer Acht ließen.

