ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

O ChatGPT finalmente diz 'David Mayer', mas falha em 5 nomes em meio a processos judiciais relacionados à IA

PorShraddha SharmaShraddha Sharma
Tempo de leitura: 2 minutos
Logotipo da OpenAI da Chatgpt em um fundo preto
  • O ChatGPT não trava mais quando perguntado sobre "David Mayer"
  • A ferramenta OpenAI para de responder quando questionada sobre outros nomes específicos.
  • Os processos judiciais em curso enfatizam a necessidade de as empresas de IA priorizarem a privacidade dos dados.

Ferramentas de inteligência artificial (IA), como o ChatGPT da OpenAI, podem executar diversas funções, mas os usuários ocasionalmente encontram falhas. Recentemente, surgiram relatos de que o ChatGPT parou de funcionar ao ser questionado sobre certos nomes, como David Mayer.

A comunidade agora questiona a forma como o modelo lida com dados sensíveis ou juridicamente complexos. Podemos aguardar que as ferramentas de IA abordem mais preocupações com a privacidade em meio a vários processos judiciais.

O ChatGPT não revela quem é David Mayer

da OpenAI parou de funcionar ao responder a perguntas sobre nomes específicos no último fim de semana. O TechCrunch citou usuários que relataram uma lista de nomes proibidos, que incluía "David Mayer", fazendo com que o chatbot congelasse ou travasse sem responder.

Quando Cryptopolitan verificou como o chat baseado no modelo de linguagem Generative Pre-trained Transformer (GPT) reagiu na terça-feira, os resultados foram semelhantes, mas não exatamente iguais.

Como o ChatGPT respondeu a uma pergunta sobre David Mayer?
Eis como o ChatGPT respondeu a uma pergunta sobre David Mayer

Descobriu-se que David Mayer não é mais um nome proibido. De acordo com o ChatGPT-4o, Mayer é um nome bastante comum, emboranão tenha conseguido especificar a pessoa. Quando questionado sobre a falha anterior, o ChatGPT minimizou o problema dizendo:

Entendo o que você está dizendo! Pode ter havido casos em que ocorreram falhas ou erros de formatação, ortografia ou geração de conteúdo, mas nada especificamente relacionado à grafia incorreta e consistente do nome 'David Mayer'

Recomendou também que se reportassem respostas "estranhas e inconsistentes".

Outros nomes — Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza — causaram o mau funcionamento do sistema durante o fim de semana e novamente na terça-feira, quando verificamos.

A OpenAI pode estar lidando com dados sensíveis de forma diferente
A OpenAI pode estar lidando com dados sensíveis de forma diferente — Relatório

O relatório constata que esses nomes pertencem a figuras públicas ou semipúblicas, como jornalistas, advogados ou pessoas que podem ter estado envolvidas em disputas legais ou de privacidade com a OpenAI. Por exemplo, o indivíduo chamado Hood teria sido representado de forma distorcida pelo ChatGPT no passado, o que levou a discussões legais com a OpenAI.

Acumularam-se processos judiciais contra empresas

O TechCrunch especula que a OpenAI possa estar sendo cautelosa com a lista de nomes para lidar de forma diferenciada com informações sensíveis ou legalmente protegidas. Isso pode ser para cumprir leis de privacidade ou acordos legais. No entanto, uma falha no código pode fazer com que o chatbot falhe sempre que informações sobre os nomes mencionados forem solicitadas.

Ao longo dos anos, diversos processos foram movidos entre empresas de IA por geração de informações incorretas ou violação de leis. Em um caso de 2020, Janecyk vs. International Business Machines, o fotógrafo Tim Janecyk alegou que a IBM usou indevidamente imagens que ele havia tirado para fins de pesquisa sem seu consentimento. Recentemente, a Gemini AI do Google enfrentou críticas por suas capacidades de geração de imagens, o que levou à sua suspensão temporária. No processo coletivo PM vs. OpenAI LP, movido em 2023, a OpenAI foi acusada de usar "informações privadas roubadas" sem consentimento.

Em 2024, a agência de notícias indiana ANI teria entrado com um processo contra a OpenAI por usar material protegido por direitos autorais da empresa de mídia para treinar o programa de mestrado em direito (LLM).

À medida que as ferramentas de IA se integram cada vez mais ao cotidiano,dentcomo esses ressaltam a importância das considerações éticas e legais em seu desenvolvimento. Seja para proteger a privacidade, garantir informações precisas ou evitar falhas relacionadas a dados sensíveis, empresas como a OpenAI enfrentam o desafio de construir confiança enquanto aprimoram sua tecnologia. Esses desafios nos lembram que mesmo os sistemas de IA mais avançados exigem vigilância constante para lidar com as complexidades técnicas, éticas e legais.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO