ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Analista de Google advierte que las respuestas de IA "no son perfectas y no pueden reemplazar tu cerebro"

PorJeffrey GogoJeffrey Gogo
3 minutos de lectura
Google
  • El analista de Google, Gary Illyes, advirtió que los LLM aún tienen lagunas en precisión.
  • Los modelos necesitan un ojo humano para verificar el contenido que producen.
  • Dijo que la gente no debería confiar en las respuestas de la IA sin verificar fuentes autorizadas.

El analista de Google, Gary Illyes, advirtió que los grandes modelos de lenguaje —la tecnología que impulsa los chatbots de IA generativa como ChatGPT— aún presentan deficiencias en su precisión y requieren la revisión humana para verificar el contenido que producen. Estas declaraciones se producen pocos días después de que OpenAI lanzara SearchGPT, un nuevo motor de búsqueda impulsado por IA que competirá directamente con Google. 

Illyes compartió los comentarios en LinkedIn en respuesta a una pregunta que recibió en su bandeja de entrada, pero no especificó cuál era la pregunta. Afirmó que la gente no debería confiar en las respuestas de la IA sin antes consultar otras fuentes autorizadas. OpenAI busca que su herramienta de búsqueda revolucione el dominio de Google en el mercado de los motores de búsqueda.

Las respuestas de la IA no son "necesariamente factualmente correctas"

Illyes, quien lleva más de una década en Google, afirmó que, si bien las respuestas de la IA pueden ser cercanas a la realidad, no son necesariamente correctas. Esto se debe a que los grandes modelos lingüísticos (LLM) no son inmunes a la información errónea que circula en internet, explicó.

“Con base en sus datos de entrenamiento, los LLM encuentran las palabras, frases y oraciones más adecuadas que se ajustan al contexto y significado de la consigna”, escribió Illyes. “Esto les permite generar respuestas relevantes y coherentes, aunque no necesariamente objetivas”

El analista de Google dijo que los usuarios aún necesitarán validar las respuestas de IA basándose en lo que "usted sabe sobre el tema que le preguntó al LLM o en lecturas adicionales sobre recursos que son confiables para su consulta"

Una forma en que los desarrolladores han intentado garantizar la fiabilidad del contenido generado por IA es mediante una práctica llamada "conexión a tierra". El proceso implica la incorporación de elementos humanos a la información generada por máquinas para evitar errores. Según Illyes, la conexión a tierra podría no ser suficiente.

“La conexión a tierra puede ayudar a crear respuestas más objetivas, pero no es perfecta; no reemplaza tu cerebro”, dijo. “Internet está lleno de desinformación, intencionada e involuntaria, y no creerías todo lo que lees en línea, así que ¿por qué deberías usar respuestas de LLM?”

Elon Musk acusa a Google de restringir el acceso a información pública

Tradicionalmente, la confianza siempre ha sido un problema con los motores de búsqueda como Google y otras plataformas de inteligencia artificial y cómo ejercen cierto control sobre la información que envían a los usuarios.

Uno de estosdentdentdent dentdentdentdent dentdent Trump. Elon Musk sugirió que Google prohibiera que el tiroteodent en sus resultados de búsqueda, lo que desató un gran debate en las redes sociales sobre el alcance de las grandes tecnológicas.

En la avalancha de respuestas, una cuenta falsa que decía pertenecer a la vicepresidenta de Googledent Ana Mostarac, se sumó al debate, compartiendo una disculpa falsa de la compañía por supuestamente bloquear contenido sobre Trump.

“…Las necesidades de información de las personas siguen creciendo, por lo que seguiremos evolucionando y mejorando la Búsqueda. Sin embargo, parece que necesitamos recalibrar lo que entendemos por precisión. La precisión es subjetiva, y la búsqueda de la precisión puede dificultar el éxito”, publicó la cuenta falsa en X.

“Pueden estar seguros de que nuestro equipo está trabajando arduamente para garantizar que no permitamos que nuestra reverencia por la precisión sea unatracque se interponga en el camino de nuestra visión para el futuro”, agregó.

Las notas de la comunidad en X marcaron inmediatamente el tuit, indicando que la persona se hacía pasar por el vicepresidente de Google. Este es un ejemplo de cómo la información puede distorsionarse fácilmente, y los modelos de IA podrían no ser capaces de discernir entre lo que es preciso y lo que no sin revisión humana.

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO