Cargando...

¿Qué es la generación de recuperación aumentada o RAG?

TL;DR

  • La generación de recuperación aumentada es un proceso de obtención de datos de fuentes externas.
  • Se utiliza para basar los LLM en bases de conocimiento auténticas y actuales y proporciona acceso a los usuarios para verificación cruzada.
  • RAG es útil para reducir los costos de capacitación de los modelos de IA, ya que reduce la necesidad de capacitación continua.

La precisión y confiabilidad de los modelos generativos de IA se pueden mejorar mediante datos obtenidos de fuentes externas, y la técnica utilizada para obtenerlos se llama generación de recuperación aumentada (RAG).

Para una comprensión sencilla, digamos que un buen modelo de lenguaje grande (LLM) puede responder a una amplia gama de consultas humanas. Pero para obtener respuestas creíbles, es necesario citar algunas fuentes y, para ello, es necesario investigar un poco, por lo que el modelo necesitará un asistente. Este proceso de asistencia se llama generación de recuperación aumentada, o RAG, por su facilidad.

Comprender la generación de recuperación aumentada o RAG

Para comprender mejor RAG, llena los vacíos que ya existen en los trabajos de LLM. La calidad o potencia de un LLM se mide por la cantidad de parámetros que tiene. Los parámetros son básicamente los patrones generales de cómo los humanos usamos las palabras para formar oraciones. Los LLM pueden ser inconsistentes con las respuestas que brindan.  

A veces brindan la información exacta que el usuario necesita y, a veces, simplemente obtienen datos y cifras aleatorios de los conjuntos de datos incluidos en su capacitación. Si a veces los LLM dan respuestas vagas, como si no supieran lo que dicen, es porque realmente no tienen idea de lo que dicen. Como hablamos de parámetros una línea arriba, los LLM pueden relacionar palabras estadísticamente, pero no conocen su significado.

La integración de RAG en los sistemas de chat basados ​​en LLM tiene dos beneficios principales: garantiza que el modelo pueda acceder a hechos actuales y confiables y también garantiza que los usuarios puedan verificar que sus afirmaciones son confiables, ya que tienen acceso a las fuentes de la información. modelo.

El director de Tecnologías del Lenguaje de IBM Research, Luis Lastras, afirmó:

"Quieres hacer una referencia cruzada de las respuestas de un modelo con el contenido original para poder ver en qué basa su respuesta".

Fuente: IBM .

También hay otros beneficios, ya que reduce las posibilidades de alucinaciones y fuga de datos, ya que tiene la oportunidad de basar su conocimiento en fuentes externas, por lo que no tiene que depender únicamente de los datos con los que fue entrenado. RAG también reduce los costos financieros y computacionales de ejecutar chatbots, ya que tiene menos necesidad de capacitarse en nuevos datos.

Beneficios del RAG

Tradicionalmente, los modelos de conversación digital utilizaban un enfoque de diálogo manual. Establecieron su comprensión de la intención del usuario, luego obtuvieron la información sobre esa base y proporcionaron respuestas en un guión general ya defi por los programadores. Este sistema era capaz de responder preguntas sencillas y directas. Sin embargo, el sistema tenía limitaciones.

Entregar respuestas a cada consulta que un cliente pudiera solicitar consumía mucho tiempo; si el usuario omitía un paso, el chatbot carecía de la capacidad de manejar la situación e improvisar. Sin embargo, la tecnología actual ha hecho posible que los chatbots brinden respuestas personalizadas a los usuarios sin la necesidad de escribir nuevos guiones por parte de humanos, y RAG va un paso más allá al conservar el modelo con contenido nuevo y reducir la necesidad de capacitación. Como dijo Lastras,

“Piense en el modelo como un empleado junior demasiado ansioso que deja escapar una respuesta antes de verificar los hechos; la experiencia nos enseña a detenernos y decir cuando no sabemos algo. Pero los LLM deben estar capacitados explícitamente para reconocer las preguntas que no pueden responder”.

Fuente: IBM.

Como sabemos, las preguntas de los usuarios no siempre son sencillas, pueden ser complejas, vagas y prolijas, o requieren información de la que carece el modelo o que no puede analizar fácilmente. En tales condiciones, los LLM pueden tener alucinaciones. Un ajuste fino puede prevenir estos casos, y se puede capacitar a los LLM Pero será necesario alimentarlo con miles de ejemplos de este tipo de preguntas para reconocerlas.

RAG es el mejor modelo disponible actualmente para basar los LLM en los datos más recientes y confirmables y también reducir la capacitación. RAG también se está desarrollando con el tiempo y aún necesita más investigación para eliminar imperfecciones.

La fuente de inspiración se puede ver aquí .

Descargo de responsabilidad:  la información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión .

Compartir enlace:

Aamir jeque

Amir es un profesional de medios, marketing y contenido que trabaja en la industria digital. Un veterano en la producción de contenido, Amir es ahora un entusiasta defensor, analista y escritor de criptomonedas.

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

tecnología
criptopolitano
Suscríbete a CryptoPolitan