ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

OpenAI enfrenta possíveis acusações de violação do RGPD na Itália

PorDerrick ClintonDerrick Clinton
Tempo de leitura: 2 minutos
OpenAI
  • As autoridades italianas suspeitam que o ChatGPT da OpenAI viole o RGPD (Regulamento Geral de Proteção de Dados) e deram 30 dias para que as autoridades apresentem defesa.
  • A base legal para o processamento de dados pessoais e as potenciais violações da legislação da UE são preocupações fundamentais.
  • A OpenAI busca conformidade com o GDPR na Irlanda em meio a investigações em andamento na Itália e na Polônia.

A OpenAI, organização por trás do chatbot de IA ChatGPT, está sob investigação da Autoridade Italiana de Proteção de Dados por possíveis violações do Regulamento Geral de Proteção de Dados (RGPD) da União Europeia. Após uma investigação de vários meses, a autoridade italiana emitiu uma notificação de objeção, suspeitando que a OpenAI possa ter infringido as normas de privacidade da UE. Os detalhes das conclusões preliminares não foram divulgados, mas a OpenAI tem 30 dias para responder e apresentar sua defesa contra as alegações.

Contexto e ações anteriores da autoridade italiana

A Autoridade Italiana de Proteção de Dados já havia manifestado preocupação com a conformidade da OpenAI com o RGPD (Regulamento Geral de Proteção de Dados) ao ordenar uma proibição temporária do processamento local de dados do ChatGPT, o que levou à suspensão do chatbot de IA no mercado italiano. A autoridade destacou problemas como a falta de uma base legal adequada para a coleta e o processamento de dados pessoais para o treinamento dos algoritmos do ChatGPT. A segurança infantil e a tendência da ferramenta de IA a "alucinar", produzindo informações imprecisas sobre indivíduos, também foram apontadas como preocupações.

Apesar de ter resolvido temporariamente algumas questões levantadas pela autoridade italiana, a OpenAI agora enfrenta conclusões preliminares de que o ChatGPT está violando a legislação da UE. O cerne da questão reside na base legal que a OpenAI alega para o processamento de dados pessoais no treinamento de seus modelos de IA, especialmente considerando que o ChatGPT foi desenvolvido usando dados coletados da internet pública, incluindo dados pessoais de indivíduos.

Fundamento jurídico para o processamento de dados e possíveis consequências

Inicialmente, a OpenAI alegou a “execução de umtrac” como base legal para o treinamento do modelo ChatGPT, mas a autoridade italiana ordenou a remoção dessa referência. Isso deixou a OpenAI com apenas duas bases legais potenciais: consentimento ou interesses legítimos. Obter o consentimento da grande maioria dos indivíduos cujos dados foram processados ​​parece impraticável, restando os interesses legítimos como principal base legal. No entanto, essa base exige que a OpenAI permita que os titulares dos dados se oponham ao processamento, o que representa um desafio para a operação contínua de um chatbot de IA.

A questão mais ampla é se a Garante, a Autoridade Italiana de Proteção de Dados, acabará por aceitar o interesse legítimo como fundamento jurídico válido neste contexto. Decisões anteriores do Tribunal de Justiça da União Europeia sugerem potenciais obstáculos, uma vez que o interesse legítimo exige um equilíbrio cuidadoso entre os interesses do responsável pelo tratamento de dados e os direitos e liberdades dos indivíduos. Notavelmente, o tribunal considerou este fundamento inadequado para o negócio de publicidade comportamental da Meta.

Resposta da OpenAI e esforços contínuos de conformidade com o GDPR

A OpenAI respondeu aos crescentes riscos regulatórios buscando estabelecer uma base física na Irlanda, designando-a como provedora de serviços para os dados de usuários da UE. O objetivo é obter o status de "estabelecimento principal" na Irlanda e ter a supervisão da conformidade com o GDPR liderada pela Comissão de Proteção de Dados da Irlanda. No entanto, esse status está pendente e o ChatGPT ainda pode enfrentar investigações das Autoridades de Proteção de Dados (APD) em outros países da UE.

Além da investigação italiana, a OpenAI também está sob escrutínio na Polônia após uma denúncia sobre informações imprecisas produzidas pelo ChatGPT e a resposta da OpenAI ao denunciante. Os esforços da OpenAI para coordenar ações com as autoridades de proteção de dados da UE por meio do Conselho Europeu de Proteção de Dados podem levar a resultados mais harmonizados, mas cada autoridade permanece competente para emitir decisões em seus respectivos mercados.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO