Un nuovo fascicolo giudiziario ha rivelato che il traffico sessuale era difficile da denunciare e ampiamente tollerato sulle piattaforme Meta. Secondo il fascicolo, reso pubblico venerdì, la causa faceva parte di una causa più ampia intentata contro quattro società di social media.
Nella memoria difensiva dei querelanti, Vaishnavi Jayakumar, responsabile della sicurezza e del benessere di Instagram, ha testimoniato che, quando è entrata a far parte di Meta nel 2020, ha appreso che l'azienda applicava una politica di 17 avvertimenti per gli account coinvolti nel traffico di esseri umani a scopo sessuale. Ciò significava che gli utenti potevano incorrere in tale infrazione 16 volte, con dell'azienda solo alla 17esima violazione. "A parità di condizioni e rispetto alla media del settore, [si trattava di] una soglia di avvertimento molto, molto alta", ha aggiunto.
Meta accusata di minimizzare i rischi per i bambini e di aver tratto in inganno il pubblico
Le accuse contro Meta derivano da una memoria depositata in un contenzioso multidistrettuale senzadent. Oltre 1.800 querelanti, tra cui bambini, genitori, distretti scolastici e procuratori generali degli stati, si sono uniti nella causa. La causa sostiene che le società madri dietro TikTok, Snapchat e YouTube "hanno perseguito incessantemente una strategia di crescita a tutti i costi, ignorando sconsideratamente l'impatto dei loro prodotti sulla salute mentale e fisica dei bambini".
Secondo la memoria depositata dai querelanti nel Distretto Settentrionale della California, Meta sarebbe stata a conoscenza di gravi danni sulla sua piattaforma e avrebbe adottato una strategia di inganno per minimizzare i rischi per i giovani utenti. Le piattaforme sostengono che i documenti aziendali interni possano corroborare le testimonianze. Inoltre, i querelanti hanno affermato che Meta era a conoscenza del fatto che milioni di adulti contattavano minori sulle loro piattaforme.
I querelanti hanno inoltre sostenuto che Meta era consapevole del fatto che i suoi prodotti aumentavano i problemi di salute mentale negli adolescenti e che contenuti relativi a disturbi alimentari, suicidio e abusi sessuali su minori venivano spesso rilevati, ma difficilmente rimossi. La memoria ha inoltre rilevato che l'azienda non ha informato il pubblico o il Congresso di questi danni e si è rifiutata di implementare misure di sicurezza per proteggere i giovani utenti dall'esposizione a tali rischi.
"Meta ha progettato prodotti e piattaforme di social media di cui è consapevole che creano dipendenza nei bambini, e che queste dipendenze portano a una serie di gravi problemi di salute mentale", afferma Previn Warren, co-avvocato principale degli attori nel caso. "Come il tabacco, questa è una situazione in cui ci sono prodotti pericolosi che sono stati commercializzati per i bambini", aggiunge Warren. "L'hanno fatto comunque, perché un maggiore utilizzo significava maggiori profitti per l'azienda".
Il briefing dipinge un quadro negativo della sua struttura interna
Le memorie difensive dei querelanti, riportate per la prima volta da TIME, si basavano su deposizioni giurate di dirigenti attuali ed ex dirigenti di Meta, comunicazioni interne e materiali di ricerca e presentazione aziendali ottenuti durante la fase istruttoria. Contenevano numerose citazioni e pareri di esperti tratti da migliaia di pagine di testimonianze e documenti interni dell'azienda. All'epoca, TIME non poté visionare le testimonianze o le ricerche citate nelle memorie perché erano secretate.
Tuttavia, la memoria fornisce ancora un quadro negativo delle ricerche e delle deliberazioni interne dell'azienda sui problemi che hanno interessato le sue piattaforme almeno dal 2017. I querelanti hanno osservato che dal 2017 Meta ha attirato utenti giovani, nonostante le sue ricerche interne suggeriscano che i suoi prodotti social media potrebbero creare dipendenza ed essere pericolosi per i bambini. Secondo la memoria, i dipendenti di Meta hanno proposto soluzioni per ridurre questi danni, ma sono stati spesso bloccati dai dirigenti.
Nel frattempo, negli anni successivi alla presentazione della causa, Meta ha implementato nuove funzionalità di sicurezza progettate per risolvere alcuni dei problemi descritti dai querelanti. L'anno scorso, l'azienda ha presentato il suo account Instagram Teen, che imposta l'account privato di default, a condizione che abbia un'età compresa tra 13 e 18 anni. Inoltre, limita i contenuti sensibili, disattiva le notifiche di notte e impedisce le comunicazioni con adulti non connessi.

