新たな裁判所の書類によると、Metaプラットフォームでは性的人身売買の通報が困難であり、広く容認されていたことが明らかになった。金曜日に公開された書類によると、この訴訟は4つのソーシャルメディア企業を相手取ったより広範な訴訟の一部である。
原告側の陳述書の中で、Instagramの安全・福祉責任者であるヴァイシュナヴィ・ジャヤクマール氏は、2020年にMetaに入社した際、同社が性目的での人身売買を行うアカウントに対して17回の警告ポリシーを設けていることを知ったと証言した。これは、ユーザーが16回まで違反行為を犯しても、17回目の違反でようやくアカウントが停止されることを意味する 。 「業界全体で見ても、非常に高い警告基準だった」と彼女は付け加えた。
メタは子供へのリスクを軽視し、国民を誤解させたとして非難されている
Metaに対する申し立ては、dent多地区訴訟に提出された弁論要旨に端を発しています。子ども、保護者、学区、州司法長官を含む1,800人以上の原告が、この訴訟に結集しています。この訴訟では、TikTok、Snapchat、YouTubeの親会社が「あらゆる犠牲を払って成長戦略を執拗に追求し、自社製品が子どもの心身の健康に与える影響を軽視した」と主張しています。
カリフォルニア州北部地区連邦地方裁判所の原告が提出した訴状によると、Metaは自社のプラットフォーム上で深刻な被害が発生していることを認識していたにもかかわらず、若年ユーザーへのリスクを軽視するために欺瞞行為を繰り返していたとされている。プラットフォーム側は、社内文書が証言を裏付けていると主張している。さらに原告は、Metaは数百万人もの成人が自社の プラットフォーム。
原告らはまた、Meta社は自社製品が10代の若者のメンタルヘルス問題を増加させていることを認識しており、摂食障害、自殺、児童性的虐待に関連するコンテンツが頻繁に検出されているにもかかわらず、ほとんど削除されていないと主張した。また、原告は、Meta社がこれらの害悪を国民や議会に開示せず、若いユーザーがこれらのコンテンツにさらされるのを防ぐための安全対策の実施も拒否したと指摘した。
「Metaは、子供たちにとって中毒性のあるソーシャルメディア製品やプラットフォームを設計しており、そうした中毒性が深刻な精神衛生上の問題を引き起こすことも認識しています」と、この訴訟の原告側共同筆頭弁護士であるプレヴィン・ウォーレン氏は述べている。「タバコと同じように、これは子供たち向けに販売された危険な製品が存在する状況です」とウォーレン氏は付け加える。「利用が増えれば会社の利益が増えるため、彼らはとにかくそれを実行したのです。」
概要では内部構造について誤った描写をしている
原告側の訴状は 報じた 、メタ社の現・元幹部の宣誓供述書、社内文書、および証拠開示手続き中に入手した同社の調査資料やプレゼンテーション資料に基づいている。訴状には、数千ページに及ぶ証言や社内文書からの引用や専門家の意見が多数含まれている。TIME誌は当時、訴状に引用されている証言や調査資料を非公開とされていたため閲覧できなかった。
しかし、この弁論要旨は、少なくとも2017年以降、Metaのプラットフォームに影響を与えてきた問題に関する社内調査と検討について、依然として不正確な記述を残している。原告らは、Metaの社内調査で同社のソーシャルメディア製品が子供にとって中毒性があり危険である可能性が示唆されているにもかかわらず、同社は2017年以降、若いユーザーを惹きつけていると指摘した。弁論要旨によると、Metaの従業員はこれらの害を軽減する方法を提案したが、経営陣によってしばしば阻止されたという。
一方、訴訟提起後の数年間、Metaは原告が指摘した問題の一部に対処するための新たな安全機能を実装してきた。昨年、同社はInstagramのティーンアカウントを発表した。これは、13歳から18歳までのユーザーのアカウントをデフォルトで非公開にする機能である。さらに、センシティブなコンテンツを制限し、夜間に通知をオフにし、つながりのない成人からのコミュニケーションをブロックする機能も備えている。

