A precisão e a confiabilidade dos modelos generativos de IA podem ser aprimoradas por meio de dados obtidos de fontes externas, e a técnica utilizada para obtê-los é chamada de geração aumentada por recuperação (RAG, na sigla em inglês).
Para simplificar o entendimento, digamos que um bom modelo de linguagem de grande porte (LLM, na sigla em inglês) consegue responder a uma ampla gama de perguntas humanas. Mas, para que as respostas sejam confiáveis, é necessário citar algumas fontes, e para isso o modelo precisa realizar pesquisas. Portanto, ele necessita de um assistente. Esse processo de assistência é chamado de geração aumentada por recuperação, ou RAG, em inglês.
Entendendo a geração aumentada por recuperação, ou RAG
Para melhor compreender o RAG, ele preenche as lacunas já existentes nos trabalhos dos Modelos de Aprendizagem Baseados em Lógica (LLMs). A qualidade ou o poder de um LLM é medido pelo número de parâmetros que ele possui. Os parâmetros são basicamente os padrões gerais de como nós, humanos, usamos as palavras para construir frases. Os LLMs podem apresentar inconsistências nas respostas que fornecem.
Às vezes, fornecem exatamente a informação que o usuário precisa, e outras vezes simplesmente geram fatos e números aleatórios a partir dos conjuntos de dados incluídos em seu treinamento. Se, por vezes, os Modelos de Aprendizagem Lógica (LLMs) dão respostas vagas, como se não soubessem o que estão dizendo, é porque realmente não têm ideia do que estão dizendo. Como falamos sobre parâmetros uma linha acima, os LLMs podem relacionar palavras estatisticamente, mas não conhecem seus significados.
A integração do RAG em sistemas de bate-papo baseados em LLM oferece dois benefícios principais: garante que o modelo tenha acesso a fatos atuais e confiáveis e também assegura que os usuários possam verificar a veracidade das afirmações, uma vez que têm acesso às fontes do modelo.
O diretor de Tecnologias de Linguagem da IBM Research, Luis Lastras, disse:
“Você quer comparar as respostas de um modelo com o conteúdo original para poder ver em que ele está baseando sua resposta.”
Fonte: IBM .
Existem também outros benefícios, como a redução das chances de alucinações e vazamento de dados, já que o sistema tem a oportunidade de basear seu conhecimento em fontes externas, não dependendo exclusivamente dos dados com os quais foi treinado. O RAG também diminui os custos financeiros e computacionais de operação de chatbots, pois há menos necessidade de treiná-los com novos dados.
Benefícios do RAG
Tradicionalmente, os modelos de conversação digital utilizavam uma abordagem de diálogo manual. Eles buscavam compreender a intenção do usuário, depois obtinham as informações com base nisso e forneciam respostas em um roteiro geral já defipelos programadores. Esse sistema era capaz de responder a perguntas simples e diretas. No entanto, o sistema tinha limitações.
Responder a todas as perguntas que um cliente pudesse ter era demorado; se o usuário perdesse alguma etapa, o chatbot não conseguia lidar com a situação e improvisar. No entanto, a tecnologia atual permite que os chatbots forneçam respostas personalizadas aos usuários sem a necessidade de escrever novos roteiros por humanos, e a RAG vai além, mantendo o modelo atualizado com conteúdo novo e reduzindo a necessidade de treinamento. Como disse Lastras,
“Pense no modelo como um funcionário júnior ansioso demais que dá uma resposta precipitada antes de verificar os fatos. A experiência nos ensina a parar e dizer quando não sabemos algo. Mas os mestres em Direito precisam ser explicitamente treinados para reconhecer perguntas que não sabem responder.”
Fonte: IBM.
Como sabemos, as perguntas dos usuários nem sempre são diretas; podem ser complexas, vagas e prolixas, ou exigir informações que o modelo não possui ou não consegue analisar facilmente. Nessas condições, os LLMs podem apresentar erros. O ajuste fino pode evitar esses casos, e os LLMs podem ser treinados para parar quando se depararem com uma situação desse tipo. Mas será necessário alimentá-los com milhares de exemplos de perguntas semelhantes para que as reconheçam.
O RAG é o melhor modelo atualmente disponível para basear modelos de regressão logística (LLMs) nos dados mais recentes e confirmáveis, além de reduzir o tempo de treinamento. O RAG está em constante desenvolvimento e ainda precisa de mais pesquisas para corrigir imperfeições.

