Un nouveau document judiciaire révèle que le trafic sexuel était difficile à signaler et largement toléré sur les plateformes Meta. Selon ce document, rendu public vendredi, cette action en justice s'inscrit dans le cadre d'une action plus vaste intentée contre quatre entreprises de médias sociaux.
Dans le mémoire des plaignants, Vaishnavi Jayakumar, responsable de la sécurité et du bien-être chez Instagram, a témoigné qu'à son arrivée chez Meta en 2020, elle avait appris que l'entreprise appliquait une politique de tolérance zéro (17 avertissements) pour les comptes impliqués dans la traite des êtres humains à des fins d'exploitation sexuelle. Autrement dit, un utilisateur pouvait commettre cette infraction 16 fois avant que l' entreprise ne suspende son compte à la 17e infraction. « De l'ensemble du secteur, ce seuil d'avertissement était extrêmement élevé », a-t-elle ajouté.
Meta accusée de minimiser les risques pour les enfants et d'induire le public en erreur
Les accusations portées contre Meta proviennent d'une plainte déposée dans le cadre d'un litige multidistrict sansdent. Plus de 1 800 plaignants, dont des enfants, des parents, des districts scolaires et des procureurs généraux d'État, se sont regroupés dans cette action en justice. La plainte allègue que les sociétés mères de TikTok, Snapchat et YouTube « ont poursuivi sans relâche une stratégie de croissance à tout prix, ignorant délibérément l'impact de leurs produits sur la santé mentale et physique des enfants ».
Selon la plainte déposée par les plaignants auprès du tribunal du district nord de Californie, Meta aurait eu connaissance de préjudices graves sur sa plateforme et aurait mis en place un système de tromperie pour minimiser les risques encourus par les jeunes utilisateurs. Les plateformes affirment que des documents internes à l'entreprise corroborent ces témoignages. De plus, les plaignants affirment que Meta savait que des millions d'adultes contactaient des mineurs sur ses plateformes.
Les plaignants ont également affirmé que Meta savait que ses produits aggravaient les problèmes de santé mentale chez les adolescents et que des contenus relatifs aux troubles alimentaires, au suicide et aux abus sexuels sur mineurs étaient fréquemment détectés, mais rarement supprimés. Le mémoire soulignait également que l'entreprise avait omis de divulguer ces préjudices au public et au Congrès, et avait refusé de mettre en œuvre des mesures de sécurité pour protéger les jeunes utilisateurs.
« Meta a conçu des produits et des plateformes de médias sociaux dont elle sait qu'ils créent une dépendance chez les jeunes, et elle sait que cette dépendance entraîne toute une série de graves problèmes de santé mentale », déclare Previn Warren, l'un des avocats principaux des plaignants dans cette affaire. « Comme pour le tabac, il s'agit d'un cas où des produits dangereux ont été commercialisés auprès des enfants », ajoute-t-il. « Ils l'ont fait malgré tout, car une utilisation accrue signifiait plus de profits pour l'entreprise. »
Le bref exposé dresse un tableau peu flatteur de sa structure interne.
Les mémoires des plaignants, révélés en premier lieu par TIME, s'appuyaient sur des dépositions sous serment de dirigeants actuels et anciens de Meta, des communications internes, ainsi que des documents de recherche et de présentation de l'entreprise obtenus lors de la phase de découverte des preuves. Ils comprenaient de nombreuses citations et références d'experts, extraites de milliers de pages de témoignages et de documents internes. TIME n'avait pas pu consulter les témoignages ni les recherches cités dans les mémoires à l'époque, car ils étaient sous scellés.
Toutefois, le mémoire dresse un tableau sombre des recherches et délibérations internes de l'entreprise concernant les problèmes qui affectent ses plateformes depuis au moins 2017. Les plaignants ont souligné que depuis 2017, Meta attire les jeunes utilisateurs, malgré les conclusions de ses recherches internes suggérant que ses produits de médias sociaux pourraient engendrer une dépendance et présenter un danger pour les enfants. Selon le mémoire, les employés de Meta ont proposé des solutions pour atténuer ces risques, mais celles-ci ont souvent été bloquées par la direction.
Entre-temps, au cours des années qui ont suivi le dépôt de la plainte, Meta a mis en place de nouvelles mesures de sécurité visant à remédier à certains des problèmes soulevés par les plaignants. L'année dernière, l'entreprise a lancé son compte Instagram pour adolescents, qui rend le compte privé par défaut pour les utilisateurs âgés de 13 à 18 ans. Ce compte limite également l'accès aux contenus sensibles, désactive les notifications la nuit et bloque les communications avec les adultes non connectés.

