Na sexta-feira, a Meta Platforms lançou uma série de novos produtos de IA, incluindo um "Avaliador Autodidata" capaz de verificar a precisão de outros modelos de IA. O modelo, portanto, permite reduzir a intervenção humana no processo de desenvolvimento de modelos de IA.
A empresa controladora do Facebook e do Instagram anunciou na sexta-feira o lançamento dos novos modelos de IA, após a apresentação da ferramenta em um artigo de agosto que explicava detalhadamente como ela se baseia na mesma técnica de "cadeia de pensamento" usada por seus concorrentes, como a OpenAI, criadora do ChatGPT, que lançou recentemente 01 modelos .
Espera-se que isso permita ao modelo de IA fazer julgamentos confiáveis sobre as respostas dos modelos.
A Meta quer abordar os desafios das imprecisões
Segundo um da Reuters , o modelo pode verificar e aprimorar a precisão das respostas a problemas difíceis, como os de disciplinas como ciências, matemática e programação, porque consiste em decompor problemas complexos em etapas lógicas menores.
A Meta revelou que suas intenções incluem abordar os desafios enfrentados por outros modelos de IA, como o ChatGPT, além das críticas sobre respostas desatualizadas e imprecisas.
Segundo informações, os pesquisadores da Meta usaram dados gerados inteiramente por IA para treinar o modelo de avaliação, eliminando a intervenção humana nessa etapa.
Dois pesquisadores da Meta disseram à Reuters que a capacidade de usar IA para avaliar outras IAs de forma confiável oferece uma visão de um possível caminho para a construção de sistemas autônomos que possam aprender com seus próprios erros.
“Esperamos que, à medida que a IA se torne cada vez mais sobre-humana, ela se torne cada vez melhor em verificar seu próprio trabalho, a ponto de ser realmente melhor do que o ser humano médio”, afirmou o pesquisador Jason Weston.
“A ideia de ser autodidata e capaz de se autoavaliar é fundamental para alcançarmos esse nível sobre-humano de IA”, acrescentou.
A Meta está caminhando em direção à IA autônoma
Segundo os pesquisadores, os participantes do setor de IA veem esses agentes como assistentes digitais inteligentes o suficiente para realizar diversas tarefas sem intervenção humana.
Os pesquisadores defendem que os modelos de autoaperfeiçoamento poderiam eliminar a necessidade de um processo frequentemente caro e ineficiente, atualmente utilizado, chamado Aprendizado por Reforço a partir de Feedback Humano. Este processo requer a intervenção de anotadores humanos que devem possuir conhecimento especializado para rotular os dados com precisão e verificar se as respostas a consultas complexas de matemática e escrita estão corretas.
Empresas do mesmo setor, como o Google e a Anthropic, também publicaram artigos de pesquisa sobre o conceito de RLAIF, ou Aprendizado por Reforço a partir de Feedback de IA.
No entanto, diferentemente da Meta, essas outras empresas geralmente não disponibilizam seus modelos para uso público.
Especialistas da área de IA opinaram que o uso de IA para verificar outras IAs é fundamental para o desenvolvimento de aplicações de IA autônomas que possam operar sem intervenção humana. Isso significa que, eventualmente, os modelos de IA aprenderão com seus próprios erros, se autocorrigirão e melhorarão sem qualquer intervenção humana.
A gigante das redes sociais também lançou outras ferramentas, incluindo uma atualização para seu modelo dedentde imagens Segment Anything Model (SAM), uma ferramenta que acelera os tempos de geração de respostas LLM e conjuntos de dados que podem ser usados para auxiliar na descoberta de novos materiais inorgânicos.

