COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Analista de Google advierte que las respuestas de IA "no son perfectas, no pueden reemplazar tu cerebro"

En esta publicación:

  • El analista de Google Gary Illyes advirtió que los LLM todavía tienen lagunas en cuanto a precisión.
  • Los modelos necesitan un ojo humano para verificar el contenido que producen.
  • Dijo que la gente no debería confiar en las respuestas de la IA sin consultar fuentes autorizadas.

El analista de Google, Gary Illyes, advirtió que los grandes modelos de lenguaje (la tecnología detrás de los chatbots de IA generativa como ChatGPT) todavía tienen lagunas en la precisión y necesitan un ojo humano para verificar el contenido que producen. Los comentarios llegan pocos días después de que OpenAI lanzara SearchGPT , un nuevo motor de búsqueda impulsado por inteligencia artificial que competirá directamente con Google.

Illyes compartió los comentarios en LinkedIn en respuesta a una pregunta que recibió en su bandeja de entrada, pero no dijo cuál era la pregunta. Dijo que la gente no debería confiar en las respuestas de la IA sin consultar otras fuentes autorizadas. OpenAI pretende que su herramienta de búsqueda derrote el dominio de Google en el mercado de los motores de búsqueda.

Las respuestas de la IA no son "necesariamente objetivamente correctas"

Illyes, que ha trabajado en Google durante más de una década, dijo que si bien las respuestas de la IA pueden aproximarse a la realidad, no son "necesariamente correctas en cuanto a los hechos". Esto se debe a que los grandes modelos de lenguaje (LLM) no son inmunes a alimentarse de información errónea que flota en Internet, explicó.

"Con base en sus datos de capacitación, los LLM encuentran las palabras, frases y oraciones más adecuadas que se alinean con el contexto y el significado de una indicación", escribió Illyes. “Esto les permite generar respuestas relevantes y coherentes. Pero no necesariamente los correctos en cuanto a los hechos”.

El analista de Google dijo que los usuarios aún necesitarán validar las respuestas de la IA en función de lo que "saben sobre el tema que le preguntaron al LLM o en lecturas adicionales sobre recursos autorizados para su consulta".

Ver también  Elon Musk, Tim Cook y Mark Zuckerberg Scramble para proteger sus imperios de los peligros de AI

Una forma en que los desarrolladores han intentado garantizar la confiabilidad del contenido generado por IA es a través de una práctica llamada "conexión a tierra". El proceso implica la infusión de información creada por máquinas con elementos humanos para proteger contra errores. Según Illyes, es posible que la conexión a tierra aún no sea suficiente.

“La conexión a tierra puede ayudar a crear respuestas más objetivamente correctas, pero no es perfecta; no reemplaza tu cerebro”, dijo. "Internet está lleno de información errónea, intencionada y no intencionada, y no creerías todo lo que lees en línea, entonces, ¿por qué creerías las respuestas de un LLM?"

Elon Musk acusa a Google de controlar la información pública

Tradicionalmente, la confianza siempre ha sido un problema con los motores de búsqueda como Google y otras plataformas de inteligencia artificial y con la forma en que ejercen cierto control sobre la información que envían a los usuarios.

Uno de esos incidentes dent que ver con el reciente intento de asesinato del ex presidente de los Estados Unidos dent Donald Trump. Elon Musk sugirió dent del tiroteo apareciera en sus resultados de búsqueda, lo que desató un importante debate en las redes sociales sobre el alcance de las grandes tecnologías.

En la avalancha de respuestas, una cuenta falsa que pretendía pertenecer a la vicepresidenta de Google, dent Mostarac, se sumó al debate, compartiendo una disculpa falsa de la compañía por supuestamente bloquear contenido sobre Trump.

Consulte también  la investigación de cumplimiento del Departamento de Trabajo de EE. UU. Celebre contra la escala AI

“…Las necesidades de información de las personas siguen creciendo, por lo que seguiremos evolucionando y mejorando la Búsqueda. Sin embargo, parece que necesitamos recalibrar lo que queremos decir con precisión. Lo que es preciso es subjetivo, y la búsqueda de la precisión puede obstaculizar la realización de las cosas”, publicó la cuenta falsa en X.

"Pueden estar seguros de que nuestro equipo está trabajando arduamente para garantizar que no permitamos que nuestra reverencia por la precisión sea unatracque se interponga en el camino de nuestra visión para el futuro", añadió.

Las notas de la comunidad sobre X inmediatamente marcaron el tweet, diciendo que la persona se estaba haciendo pasar por el vicepresidente de Google. Este es un ejemplo de cómo la información puede distorsionarse fácilmente y es posible que los modelos de IA no puedan discernir entre lo que es exacto y lo que no sin una revisión humana.

Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan