A Meta Platforms lançará na terça-feira o recurso "Contas para Adolescentes" no Facebook e no Messenger. Essas contas terão configurações de privacidade mais rigorosas para os usuários.
Esta é a mais recente tentativa de silenciar as críticas de que a empresa de redes sociais não está fazendo o suficiente para proteger os jovens usuários dos danos online.
Meta amplia a proteção aos adolescentes com controles mais rigorosos e filtros de conteúdo
Como parte das novas atualizações de política anunciadas na terça-feira, adolescentes menores de 16 anos não poderão mais transmitir vídeos ao vivo sem a aprovação dos pais ou compartilhar imagens que possam conter nudez por meio de mensagens diretas.
A empresa afirmou que os recursos aprimorados de privacidade e controle parental introduzidos no Instagram no ano passado visam solucionar as preocupações sobre como os adolescentes passam seu tempo nas redes sociais.
Com as Contas para Adolescentes, os usuários menores de 18 anos ficam protegidos de conteúdo sensível, têm o envio de mensagens restrito a determinadas contas e não possuem perfis públicos visíveis. Embora os usuários de 16 e 17 anos possam ajustar essas configurações, os adolescentes mais jovens precisam da autorização dos pais para fazer qualquer alteração.
Segundo a Meta, 97% dos adolescentes entre 13 e 15 anos optaram por manter essas proteções ativadas, e mais de 54 milhões de usuários possuem atualmente Contas para Adolescentes.
É importante ressaltar que os filtros de conteúdo específicos para adolescentes da Meta substituirão as recentes mudanças nas políticas que permitem discursos de ódio limitados em determinados contextos. Para usuários menores de 18 anos, isso significa que o conteúdo com linguagem depreciativa direcionada a pessoas transgênero ou não binárias permanecerá bloqueado.
“Não haverá mudanças na forma como lidamos com conteúdo que explora crianças ou conteúdo que incentiva o suicídio, a automutilação ou distúrbios alimentares, nem nossas políticas de bullying e assédio para menores de 18 anos serão alteradas”, disse um porta-voz da Meta.
A Meta intensificou seus esforços para proteger adolescentes após anos de intenso escrutínio por parte de legisladores, pais e órgãos reguladores devido à sua falha em proteger adequadamente os jovens usuários online.
No ano passado, mais de 30 estados americanos entraram com uma ação judicial contra a empresa, acusando-a de explorar jovens por meio de suas plataformas.
da Meta, Mark Zuckerberg, também enfrentou questionamentos rigorosos durante uma audiência no Congresso focada na proteção de crianças contra predadores sexuais online. Em uma sala de audiências lotada, ele pediu desculpas publicamente às famílias de crianças que foram vítimas de exploração sexual nas redes sociais.
Juiz autoriza prosseguimento de ações-chave em caso histórico
decisão de 102 páginas que considera "admissíveis" muitas das ações de proteção ao consumidor movidas pelos procuradores-gerais de 34 estados.
Ela negou o pedido da Meta para rejeitar parte das alegações dos estados com base na Lei de Proteção da Privacidade Online das Crianças (COPPA, na sigla em inglês), que proíbe a coleta de dados de usuários de redes sociais menores de 13 anos sem notificar e obter a permissão de seus pais.
A Meta procurou rejeitar essas alegações, argumentando que nem o Facebook nem o Instagram são direcionados a crianças.
Embora a Meta tenha argumentado que o conteúdo de terceiros voltado para crianças não deveria classificar suas plataformas como direcionadas a crianças, a juíza Gonzalez Rogers discordou. Ela decidiu que o conteúdo hospedado por uma plataforma — mesmo que publicado por terceiros — pode ser considerado ao determinar se a plataforma ou partes dela são direcionadas a crianças perante a lei.
A juíza concluiu que o design, o desenvolvimento e a implementação de certas funcionalidades do produto da Meta poderiam ser razoavelmente considerados desleais ou abusivos, de acordo com as leis federais e estaduais aplicáveis. No entanto, ela também observou que a Seção 230 da Lei de Decência nas Comunicações — que protege as plataformas online da responsabilidade por conteúdo gerado pelo usuário — impõe limitações a partes do processo contra a empresa.
No que diz respeito às alegações dos estados sobre proteção ao consumidor, alguns recursos do Facebook e do Instagram que, segundo os estados, viciam as crianças, estão protegidos pela Seção 230, que isenta de responsabilidade pelo conteúdo publicado pelos usuários, escreveu Gonzalez Rogers.
Ao contestar essas características, a juíza afirmou já ter concluído, em uma decisão de 2023, que os processos visam diretamente o papel das plataformas como editoras de conteúdo de terceiros e violam a Seção 230.
Os recursos protegidos incluem rolagem infinita e reprodução automática, conteúdo efêmero, notificações e alertas audiovisuais e de vibração intrusivos, além da quantificação e exibição de "curtidas"
No entanto, outros recursos, como filtros que alteram a aparência, que restringem o tempo gasto na plataforma, e a função de múltiplas contas do Instagram, não são protegidos pela Seção 230 porque não envolvem a alteração da publicação de conteúdo de terceiros, disse Gonzalez Rogers, referindo-se novamente à sua decisão de 2023.

