Aus einer neuen Gerichtsakte geht hervor, dass Menschenhandel zum Zweck der sexuellen Ausbeutung auf Meta-Plattformen schwer zu melden und weitgehend toleriert war. Laut der am Freitag veröffentlichten Akte ist die Klage Teil einer umfassenderen Klage gegen vier Social-Media-Unternehmen.
In der Klageschrift gab Vaishnavi Jayakumar, Leiterin für Sicherheit und Wohlbefinden bei Instagram, an, dass sie bei ihrem Eintritt in das Unternehmen Meta im Jahr 2020 erfahren habe, dass dieses eine 17-fache Verwarnungsrichtlinie für Konten anwendete, die Menschenhandel zum Zweck der sexuellen Ausbeutung betrieben. Dies bedeutete, dass Nutzer bis zu 16 Mal gegen die Richtlinie verstoßen konnten, bevor das Unternehmen ihr Konto erst beim 17. Verstoß sperrte. „Branchenweit gesehen war dies eine extrem hohe Verwarnungsschwelle“, fügte sie hinzu.
Meta wird vorgeworfen, die Risiken für Kinder heruntergespielt und die Öffentlichkeit irregeführt zu haben.
Die Vorwürfe gegen Meta gehen auf eine Klageschrift in einemdent, bundesweiten Sammelverfahren zurück. Mehr als 1.800 Kläger, darunter Kinder, Eltern, Schulbezirke und Generalstaatsanwälte, haben sich zusammengeschlossen. Die Klage wirft den Mutterkonzernen von TikTok, Snapchat und YouTube vor, „unermüdlich eine Wachstumsstrategie um jeden Preis verfolgt und dabei die Auswirkungen ihrer Produkte auf die psychische und physische Gesundheit von Kindern rücksichtslos ignoriert zu haben.“
Laut der von den Klägern im Northern District of California eingereichten Klageschrift soll Meta von schwerwiegenden Gefahren auf seiner Plattform gewusst und systematisch die Risiken für junge Nutzer verharmlost haben. Die Plattformen behaupten, interne Firmendokumente könnten die Aussagen untermauern. Darüber hinaus gaben die Kläger an, Meta habe gewusst, dass Millionen Erwachsene über ihre Plattformen.
Die Kläger behaupteten außerdem, Meta sei sich bewusst gewesen, dass seine Produkte psychische Probleme bei Jugendlichen verstärkten, und Inhalte zu Essstörungen, Suizid und sexuellem Kindesmissbrauch seien zwar häufig entdeckt, aber kaum entfernt worden. In der Klageschrift wurde zudem angemerkt, dass das Unternehmen diese Schäden weder der Öffentlichkeit noch dem Kongress mitgeteilt und sich geweigert habe, Sicherheitsvorkehrungen zum Schutz junger Nutzer vor diesen Inhalten zu treffen.
„Meta hat Social-Media-Produkte und -Plattformen entwickelt, von denen das Unternehmen weiß, dass sie Kinder süchtig machen, und dass diese Sucht zu einer Vielzahl schwerwiegender psychischer Probleme führt“, sagt Previn Warren, einer der Hauptanwälte der Kläger in diesem Fall. „Ähnlich wie beim Tabakhandel handelt es sich hier um gefährliche Produkte, die gezielt an Kinder vermarktet wurden“, fügt Warren hinzu. „Sie haben es trotzdem getan, weil mehr Nutzung mehr Gewinn für das Unternehmen bedeutete.“
Der Brief zeichnet ein schlechtes Bild seiner inneren Struktur.
Schriftsätze der Kläger veröffentlichten basierten auf eidesstattlichen Aussagen aktueller und ehemaliger Führungskräfte von Meta, interner Kommunikation sowie im Rahmen des Beweisaufnahmeverfahrens beschafften Unternehmensunterlagen und Präsentationsmaterialien. Sie enthalten zahlreiche Zitate und Expertenmeinungen aus Tausenden von Seiten an Zeugenaussagen und internen Firmendokumenten. TIME konnte die in den Schriftsätzen zitierten Zeugenaussagen und Recherchen zum damaligen Zeitpunkt nicht einsehen, da sie unter Verschluss standen.
Die Klageschrift zeichnet jedoch weiterhin ein negatives Bild der internen Forschung und Beratungen des Unternehmens zu Problemen, die seine Plattformen seit mindestens 2017 betreffen. Die Kläger merkten an, dass Meta seit 2017 junge Nutzer anlockt, obwohl interne Studien nahelegen, dass seine Social-Media-Produkte süchtig machen und für Kinder gefährlich sein könnten. Laut der Klageschrift schlugen Meta-Mitarbeiter Maßnahmen zur Schadensbegrenzung vor, wurden aber häufig von der Geschäftsleitung blockiert.
In den Jahren nach Einreichung der Klage hat Meta neue Sicherheitsfunktionen eingeführt, die einige der von den Klägern beschriebenen Probleme beheben sollen. Letztes Jahr stellte das Unternehmen sein Instagram-Teenagerkonto vor, das das Konto eines Nutzers standardmäßig auf privat stellt, sofern dieser zwischen 13 und 18 Jahre alt ist. Zusätzlich werden sensible Inhalte eingeschränkt, Benachrichtigungen nachts deaktiviert und die Kommunikation mit nicht verbundenen Erwachsenen unterbunden.

