A Meta recebeu diversas reclamações sobre seus planos de usar dados de clientes no treinamento de IA, o que levou organizações de defesa da privacidade e autoridades de proteção de dados a apresentarem queixas em 11 países. O grupo ativista de privacidade Noyb apresentou as queixas depois que a Meta atualizou sua política de privacidade.
Leia também: Quem decide como os dados pessoais são usados no treinamento de sistemas de IA? A PDPC publica diretrizes.
A Meta possui seu próprio LLM chamado Llama, cuja versão mais recente, Llama 3, foi lançada em abril. Segundo Noyb, a principal questão é a proposta da Meta de usar anos de publicações, incluindo fotos, como dados de treinamento para aprimorar seu sistema de inteligência artificial. Esses dados de treinamento, no entanto, não incluirão mensagens privadas entre usuários e amigos ou familiares.
A Meta é acusada de violar o RGPD (Regulamento Geral sobre a Proteção de Dados)
A Meta lançou recentemente uma atualização de sua política de privacidade no mercado europeu, e as últimas alterações entram em vigor em 26 de junho. De acordo com Noyb, uma análise mais detalhada dos links na notificação revela os planos da Meta de usar dados para uma tecnologia de IA ainda não defi . A empresa também menciona que, em vez de solicitar o consentimento do usuário, a Meta alega ter um "interesse legítimo que se sobrepõe ao direito fundamental" à proteção de dados e à proteção dos usuários da UE.
“A Meta basicamente afirma que pode usar 'quaisquer dados de qualquer fonte para qualquer finalidade e disponibilizá-los a qualquer pessoa no mundo', desde que isso seja feito por meio de 'tecnologia de IA'.” – Max Schrems, fundador da Noyb.
Schrems também mencionou que a Meta está violando o Regulamento Geral de Proteção de Dados (RGPD) da UE. Ele acrescentou ainda que "a Meta não diz para que usará os dados, então pode ser desde um simples chatbot, publicidade personalizada extremamente agressiva ou até mesmo um drone assassino. A Meta também afirma que os dados do usuário podem ser disponibilizados a terceiros."
Nós ( @NOYBeu ) apresentamos hoje 11 queixas contra @MetaAI de usar todos os dados públicos e privados (exceto chats) de aproximadamente 400 milhões de usuários europeus para uma "tecnologia de IA" atual e futura não especificada. Solicitamos um procedimento de urgência. https://t.co/U52U7CyNh3
-Max Schrems 🇪🇺 (@maxschrems) 6 de junho de 2024
Os usuários podem optar por não participar?
Noyb indica ainda que os usuários não têm o direito de ter seus dados removidos ou o “direito ao esquecimento”. Por esses motivos, Noyb solicitou às autoridades de proteção de dados em 11 países europeus que iniciem processos para “impedir imediatamente essa mudança” antes que a Meta implemente a política atualizada neste mês.
Noyb apresentou queixas a grupos de defesa da privacidade na Áustria, Bélgica, França, Grécia, Alemanha, Irlanda, Itália, Países Baixos, Noruega, Polônia e Espanha para que tomem medidas e suspendam a política. Segundo Noyb, o Artigo 66 permite que as autoridades de proteção de dados tomem medidas cautelares em situações semelhantes.
Leia também: Itália inicia investigação sobre o Sora da OpenAI devido a preocupações com a proteção de dados
Um porta-voz da Meta, no entanto, disse ao The Register que suas ações são legais.
“Estamosdent de que nossa abordagem está em conformidade com as leis de privacidade e é consistente com a forma como outras empresas de tecnologia estão desenvolvendo e aprimorando suas experiências de IA na Europa.”
A Comissão Irlandesa de Proteção de Dados (DPC) afirmou que a Meta atrasou o lançamento do seu projeto para responder a questionamentos da DPC, que já foram resolvidos. No entanto, Noyb acusa a Meta de dificultar a decisão de exclusão (opt-out) para os usuários.
Reportagem Cryptopolitan de Enacy Mapakame

