Meta -Plattformen planen, künstliche Intelligenz zur Bewertung von Privatsphäre und gesellschaftlichen Risiken zu nutzen. Im Laufe der Jahre hat das Unternehmen menschliche Bewerter eingesetzt, um die mit neuen Produkten und Funktionen verbundenen Risiken zu untersuchen, aber die Dinge werden sich mit diesem neuen Update ändern.
Laut internen Gesprächen und Dokumenten plant META, 90% aller Risikobewertungen automatisiert zu haben. Dies bedeutet, dass Aspekte in Bezug auf kritische Aktualisierungen der Algorithmen, Sicherheitsfunktionen und Änderungen des Unternehmens, wie Inhalte auf den Meta -Plattformen geteilt werden dürfen, hauptsächlich von einem von künstlichen Intelligenz unterstützten System genehmigt werden. Dies bedeutet auch, dass diese Änderungen nicht mehr von den Mitarbeitern überprüft werden, um zu diskutieren, wie eine Änderung auf der Plattform unvorhergesehene Effekte oder missbraucht werden könnte.
Meta beabsichtigt, in ein KI-angetanter Überprüfungssystem zu wechseln
Laut Quellen in Meta wurde die Entwicklung als Sieg für Produktentwickler angesehen, da sie ihnen genügend Zeit bietet, um ihre App -Updates und -funktionen zu veröffentlichen. Es gibt jedoch immer noch Bedenken im Unternehmen darüber, wie schwierig die Situation ist, und stellte fest, dass das Unternehmen KI , schwierige Bestimmungen über die Apps von Meta zu treffen, die zu Schaden in der realen Welt führen könnten. Die Voreingenommenheit wurde sowohl von früheren als auch von aktuellen Mitarbeitern geteilt.
"Soweit dieser Prozess funktional mehr Dinge bedeutet, schneller zu starten, mit weniger strenger Prüfung und Opposition, schaffen Sie höhere Risiken", sagte ein ehemaliger Meta -Manager, der aus Angst vor Vergeltungsmaßnahmen des Unternehmens Anonymität beantragte. "Negative Externalitäten von Produktveränderungen werden weniger wahrscheinlich verhindert, bevor sie Probleme in der Welt verursachen."
In einer kürzlich erschienenen Erklärung erwähnte Meta, dass es Milliarden von Dollar zur Unterstützung der Privatsphäre der Benutzer integriert hat. Das Unternehmen steht seit 2012 auch unter der Beobachtung der Federal Trade Commission. Die Agentur hat eine Vereinbarung mit dem Unternehmen darüber getroffen, wie es die persönlichen Daten ihrer Benutzer umgeht. Infolgedessen bestand laut früheren und aktuellen Meta -Mitarbeitern immer ein Bedarf an Datenschutzbewertungen von Produkten.
In seiner Erklärung fügte das Unternehmen hinzu, dass die Änderungen der Produktrisikoüberprüfung dazu beitragen werden, die Entscheidungsfindung zu optimieren, und stellt fest, dass es immer noch menschliches Know-how in neuartigen und komplexen Themen einsetzt. Meta stellte außerdem fest, dass derzeit nur Entscheidungen mit geringem Risiko automatisiert werden. Interne Dokumente, die von NPR , zeigen, dass Meta die Automatisierung von Überprüfungen für sensible Aspekte, einschließlich KI-Sicherheit, Jugendrisiko und einer anderen Kategorie, die als Integrität bekannt ist, die für Dinge wie Fehlinformationen und gewalttätige Inhalte verantwortlich ist.
Im Rahmen des vorherigen Systems wurden Produkt- und Feature -Updates zunächst an Risikoträger gesendet, bevor sie an die Öffentlichkeit geraten wurden. Laut einer Folie, in der die Funktionsweise des neuen Prozesses funktioniert, erhalten Produktteams nach dem Ausfüllen eines Fragebogens zum Projekt sofort Entscheidungen. Die KI-angetriebene Entscheidung werde ich in mehreren riskanten Bereichen und Anforderungen, die sie befriedigen könnten,dent. Vor der Einführung solcher Projekte wird das Produktteam auch überprüfen, ob die Anforderungen erfüllt wurden.
Was das neue System hervorhebt, ist, dass die Ingenieure Meta -Produkte bauen müssen, um über die Risiken zu urteilen. Laut der Folie werden in einigen Fällen, einschließlich neuer Risiken oder bei dem ein Produktteam zusätzliches Feedback benötigt, die Projekte eine manuelle Überprüfung, die vom Menschen durchgeführt wird.
Zvika Krieger, ein ehemaliger Meta -Direktor für Innovation, hat jedoch erwähnt, dass Produktmanager und Ingenieure keine Datenschutz -Experten sind. „Die meisten Produktmanager und Ingenieure sind keine Datenschutz -Experten, und das steht nicht im Mittelpunkt ihres Jobs. Es ist nicht das, worauf sie in erster Linie bewertet werden, und es ist nicht das, was sie zur Priorisierung von Prioritäten haben", sagte er. Er fügte auch hinzu, dass einige dieser Selbsteinschätzungen zu Übungen geworden sind, die einige wichtige Risiken verpassen.
Academy : Kurz DeFi