ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Analista do Google alerta que respostas de IA 'não são perfeitas e não podem substituir seu cérebro'

PorJeffrey GogoJeffrey Gogo
Tempo de leitura: 3 minutos
Google
  • O analista do Google, Gary Illyes, alertou que os mestrados em direito (LLMs) ainda apresentam lacunas em termos de precisão.
  • Os modelos precisam de um olhar humano para verificar o conteúdo que produzem.
  • Ele disse que as pessoas não devem confiar nas respostas da IA ​​sem consultar fontes confiáveis.

O analista do Google, Gary Illyes, alertou que os grandes modelos de linguagem — a tecnologia por trás de chatbots de IA generativa como o ChatGPT — ainda apresentam lacunas de precisão e precisam da intervenção humana para verificar o conteúdo que produzem. Os comentários surgem poucos dias após o lançamento do SearchGPT, um novo mecanismo de busca com inteligência artificial que competirá diretamente com o Google. 

Illyes compartilhou os comentários no LinkedIn em resposta a uma pergunta que recebeu em sua caixa de entrada, mas não revelou qual era a pergunta. Ele afirmou que as pessoas não devem confiar em respostas de IA sem antes consultar outras fontes confiáveis. A OpenAI almeja que sua ferramenta de busca desbanque o domínio do Google no mercado de mecanismos de busca.

As respostas da IA ​​não são 'necessariamente factualmente corretas'

Illyes, que trabalha no Google há mais de uma década, disse que, embora as respostas da IA ​​possam estar próximas da realidade, elas não são "necessariamente factualmente corretas". Isso ocorre porque os grandes modelos de linguagem (LLMs, na sigla em inglês) não são imunes a se alimentarem de informações incorretas que circulam na internet, explicou ele.

“Com base nos dados de treinamento, os LLMs encontram as palavras, frases e sentenças mais adequadas que se alinham ao contexto e significado de uma solicitação”, escreveu Illyes. “Isso permite que eles gerem respostas relevantes e coerentes. Mas não necessariamente corretas em termos factuais.”

O analista do Google afirmou que os usuários ainda precisarão validar as respostas da IA ​​com base no que "você sabe sobre o assunto para o qual perguntou ao especialista em direito ou por meio de leituras adicionais em recursos que sejam considerados confiáveis ​​para sua consulta"

Uma das maneiras pelas quais os desenvolvedores tentaram garantir a confiabilidade do conteúdo gerado por IA é por meio de uma prática chamada "agregação". O processo envolve a infusão de elementos humanos nas informações criadas pela máquina para evitar erros. De acordo com Illyes, a agregação ainda pode não ser suficiente.

“O método de ancoragem pode ajudar a criar respostas mais factualmente corretas, mas não é perfeito; não substitui o seu cérebro”, disse ele. “A internet está cheia de desinformação intencional e não intencional, e você não acreditaria em tudo que lê online, então por que acreditaria em respostas de mestrado em direito?”

Elon Musk acusa o Google de controlar o acesso a informações públicas

Tradicionalmente, a confiança sempre foi uma questão importante em relação a mecanismos de busca como o Google e outras plataformas de inteligência artificial, e como eles exercem certo controle sobre as informações que repassam aos usuários.

Um desses incidentesdentdentdent dentdentdentdent dentdent Trump. Elon Musk sugeriu que o Google proibisse a exibição do incidentedent resultados de busca, o que gerou um grande debate nas redes sociais sobre o alcance das grandes empresas de tecnologia.

Em meio à enxurrada de respostas, uma conta falsa que alegava pertencer à vice-presidente do Googledent Ana Mostarac, entrou no debate, compartilhando um pedido de desculpas falso da empresa por supostamente bloquear conteúdo sobre Trump.

“…As necessidades de informação das pessoas continuam a crescer, por isso continuaremos a evoluir e aprimorar a Busca. No entanto, parece que precisamos recalibrar o que entendemos por precisão. O que é preciso é subjetivo, e a busca pela precisão pode atrapalhar a realização das coisas”, publicou a conta falsa no X.

“Podem ter certeza de que nossa equipe está trabalhando arduamente para garantir que nossa reverência pela precisão não seja umatracque atrapalhe nossa visão para o futuro”, acrescentou.

A comunidade do Google imediatamente sinalizou o tweet, dizendo que a pessoa estava se passando pelo vice-presidente do Google. Este é um exemplo de como as informações podem ser facilmente distorcidas e como os modelos de IA podem não ser capazes de discernir entre o que é preciso e o que não é sem revisão humana.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO