ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

O ChatGPT continua a disseminar informações falsas, afirma órgão de proteção de dados da UE 

PorJeffrey GogoJeffrey Gogo
Tempo de leitura: 2 minutos
ChatGPT
  • De acordo com um novo relatório, o ChatGPT ainda não atende aos padrões de precisão de dados da UE.
  • A UE afirma que os esforços da OpenAI para adequar o ChatGPT às normas são “insuficientes”
  • O compromisso da OpenAI com a segurança do usuário tem sido questionado.

O ChatGPT, o chatbot viral da OpenAI, ainda não atende aos padrões de precisão de dados da União Europeia, de acordo com um novo relatório do órgão de vigilância da privacidade da UE. 

Leia também: Lei de IA da Europa recebe aprovação final com multas de até US$ 38 milhões

O relatório do Conselho Europeu de Proteção de Dados (EDPB) não é um documento legal. No entanto, ele servirá de base para uma abordagem comum na regulamentação do ChatGPT nos 27 Estados-Membros da UE.

ChatGPT não cumpre os padrões de dados

Órgãos de fiscalização nacionais formaram a "força-tarefa ChatGPT" no ano passado, em resposta a processos em andamento em diversos países europeus contra o modelo de IA. A força-tarefa está subordinada ao CEPD (Comitê Europeu para a Proteção de Dados).

Em um relatório publicado em 24 de maio, a força-tarefa afirmou:

“Embora as medidas tomadas para cumprir o princípio da transparência sejam benéficas para evitar interpretações errôneas dos resultados do ChatGPT, elas não são suficientes para cumprir o princípio da exatidão dos dados.”

Os grandes modelos de linguagem, ou LLMs, são notórios por "alucinarem" – termo técnico para quando chatbots de IA divulgam informações falsas, muitas vezes com convicção.

Chatbots como o ChatGPT ou o Gemini do Google são alimentados por LLMs (Máquinas de Aprendizagem Baseadas em Leis). De acordo com o rigoroso Regulamento Geral de Proteção de Dados (RGPD) da Europa, os usuários podem processar por terem sido mal representados ou por lhes ter sido negada a oportunidade de corrigir informações imprecisas sobre si mesmos.

De acordo com o relatório da força-tarefa, “Devido à natureza probabilística do sistema (de IA), a abordagem de treinamento atual leva a um modelo que também pode produzir resultados tendenciosos ou inventados”

“Os resultados fornecidos pelo ChatGPT provavelmente serão considerados factualmente precisos pelos usuários finais, incluindo informações relacionadas a indivíduos, independentemente de sua exatidão real”, acrescentou.

ChatGPT
Bandeira da União Europeia. Fonte: Pixabay

UE reforça compromissos com a conformidade

A OpenAI já havia citado a complexidade técnica como justificativa para sua falha em corrigir informações errôneas, mas o órgão de fiscalização da União Europeia está redobrando a aposta.

“Em particular, a impossibilidade técnica não pode ser invocada para justificar o não cumprimento desses requisitos”, observou o grupo de trabalho.

Em um caso recém-aberto, uma figura pública austríaca está processando o ChatGPT por não ter corrigido sua data de nascimento. A OpenAI afirmou que fazê-lo não seria tecnicamente viável, mas este novo relatório aumentará a pressão sobre o modelo de IA.

Uma advogada especializada em proteção de dados ligada ao caso, Maartje de Graaf, afirmou que atualmente as empresas não conseguem fazer com que os chatbots de IA cumpram a legislação da UE no processamento de dados pessoais.

“Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem de cumprir os requisitos legais, e não o contrário”, afirmou de Graaf.

ChatGPT

Preocupações com a segurança pairam sobre a OpenAI

Especialistas afirmam que o ChatGPT precisará de mudanças ambiciosas para evitar infringir o GDPR, que regulamenta a proteção de dados na União Europeia.

As regras também fornecem um modelo de trabalho para leis de dados na Argentina, Brasil, Chile, Japão, Quênia, Maurício, África do Sul, Coreia do Sul, Turquia e Reino Unido.

Leia também: OpenAI abandona o ChatGPT Voice após controvérsia com Scarlett Johansson

Entretanto, o compromisso da OpenAI com a segurança do usuário tem sido questionado.

A empresa foi atingida por uma série de demissões de alto nível, com a saída do cofundador Ilya Sutskever, Gretchen Krueger, Jan Leike e outros seis funcionários, o que justifica uma mudança cultural.

No início desta semana, a OpenAI anunciou a suspensão da voz "Sky" do ChatGPT após preocupações de que ela se assemelhasse à voz da atriz Scarlett Johansson no filme com temática de inteligência artificial, Her.


Reportagem Cryptopolitan por Jeffrey Gogo

Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO