Meta Platforms établit mardi sa fonctionnalité de «comptes pour adolescents» sur Facebook et Messenger. Les comptes auront des paramètres de confidentialité plus stricts pour les utilisateurs.
Il s'agit du dernier effort pour calmer les critiques qui disent que la société de réseautage social n'en fait pas assez pour protéger les jeunes utilisateurs contre les dommages en ligne.
Meta étend les protections des adolescents avec des contrôles et des filtres de contenu plus stricts
Dans le cadre des nouvelles mises à jour de la politique annoncées mardi, les adolescents de moins de 16 ans ne pourront plus organiser des vidéos en direct sans approbation parentale ou partager des images qui peuvent contenir la nudité via des messages directs.
La société a déclaré que les contrôles accrus de la confidentialité et des parents introduits sur Instagram l'année dernière répondront aux préoccupations concernant la façon dont les adolescents passent leur temps sur les réseaux sociaux.
Avec les comptes des adolescents, les utilisateurs de moins de 18 ans sont protégés du contenu sensible, restreints de la messagerie de certains comptes et empêchés d'avoir des profils publics à découvrir publiquement. Alors que les utilisateurs âgés de 16 et 17 ans peuvent ajuster ces paramètres, les adolescents plus jeunes nécessitent un consentement parental pour apporter des modifications.
Selon Meta, 97% des adolescents âgés de 13 à 15 ans ont choisi de maintenir ces protections activées, et plus de 54 millions d'utilisateurs ont actuellement des comptes d'adolescents.
Surtout, les filtres de contenu spécifiques aux adolescents de Meta l'emporteront sur les changements de politique récents qui permettent un discours de haine limité dans certains contextes. Pour les utilisateurs de moins de 18 ans, cela signifie que le contenu contenant un langage désobligeant ciblant les personnes transgenres ou non binaires restera bloquée.
"Il n'y a aucun changement dans la façon dont nous traitons le contenu qui exploite les enfants ou le contenu qui encourage les troubles du suicide, de l'auto-blessure ou de l'alimentation, et nos politiques d'intimidation et de harcèlement ne changent pas pour les personnes de moins de 18 ans", a déclaré un porte-parole de Meta.
Meta a intensifié ses efforts pour protéger les adolescents après des années d'un examen minutieux des législateurs, des parents et des régulateurs pour ne pas protéger adéquatement les jeunes utilisateurs en ligne.
L'année dernière, plus de 30 États américains ont déposé une plainte contre la société, l'accusant d'exploiter les jeunes par le biais de ses plateformes.
Le méta- PDG Mark Zuckerberg a également été confronté à des questions difficiles lors d'une audience du Congrès axée sur le blindage des enfants des prédateurs sexuels en ligne. Dans une salle d'audience bondée, il a présenté des excuses publiques aux familles d'enfants qui avaient été victimes d'exploitation sexuelle sur les réseaux sociaux.
Le juge autorise les réclamations clés de procéder dans l'affaire historique
décision de 102 pages selon laquelle de nombreuses réclamations de protection des consommateurs apportées par les procureurs généraux de l'État de 34 États sont «reconnaissables».
Elle a nié la tentative de Meta de rejeter une partie des réclamations des États en vertu de la loi sur la protection de la vie privée en ligne pour enfants, ou COPPA, qui interdit la collecte de données des utilisateurs de médias sociaux de moins de 13 ans sans notifier et obtenir la permission de leurs parents.
Meta a cherché à faire rejeter ces affirmations car elle ne fait valoir ni Facebook ni Instagram contre les enfants.
Alors que Meta a soutenu que le contenu tiers destiné aux enfants ne devrait pas classer ses plateformes comme étant dirigés contre les enfants, le juge Gonzalez Rogers n'était pas d'accord. Elle a jugé que le contenu hébergé par une plate-forme - même si elle est publiée par des tiers - peut être envisagée lors de la détermination de la détermination de la plate-forme ou des parties de celle-ci contre les enfants en vertu de la loi.
Le juge a constaté que la conception, le développement et la mise en œuvre de certaines caractéristiques des produits de Meta pouvaient raisonnablement être considérés comme injustes ou déraisonnables en vertu des lois fédérales et étatiques pertinentes. Cependant, elle a également noté que l'article 230 de la loi sur la décence des communications - qui protège les plateformes en ligne contre la responsabilité du contenu généré par les utilisateurs - limite les limites des parties de l'affaire contre la société.
En ce qui concerne les réclamations de protection des consommateurs des États, certaines fonctionnalités de Facebook et Instagram qui prétendent que les enfants accrochent les enfants sont protégés en vertu de l'article 230 contre la responsabilité du contenu publié par les utilisateurs, a écrit Gonzalez Rogers.
En contestant ces fonctionnalités, le juge a déclaré qu'elle avait déjà conclu dans une décision de 2023 que les poursuites ciblent directement les rôles des plateformes en tant qu'éditeurs de contenu tiers et se déroulent sur l'article 230.
Les fonctionnalités protégées incluent le défilement infini et le jeu de automatique, le contenu éphémère, les notifications et alertes audiovisuelles et vibrations perturbatrices, ainsi que la quantification et les affichages de «goûts».
Cependant, d'autres fonctionnalités, telles que les filtres modifiant en apparence, qui restreignent le temps passé sur la plate-forme et la fonction de compte multiple d'Instagram, ne sont pas protégées en vertu de l'article 230 car elles n'impliquent pas la modification de la publication du contenu tiers, a déclaré Gonzalez Rogers, faisant référence à nouveau à sa décision à partir de 2023.
Cryptopolitan Academy: à venir bientôt - une nouvelle façon de gagner un revenu passif avec DeFi en 2025. En savoir plus