COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Google limita las descripciones generales de IA para consultas satíricas y sin sentido

En esta publicación:

  • Google ahora muestra menos resúmenes de IA, según los usuarios y analistas de motores de búsqueda.
  • La vicepresidenta de Búsqueda de Google, Liz Reid, admitió que el gigante de las búsquedas estaba reduciendo las descripciones generales de IA.
  • Google hadentel contenido satírico y sin sentido como causa de respuestas incorrectas.

Google está reduciendo la presentación de descripciones generales de IA en algunos resultados de búsqueda. La decisión se tomó después de que el gigante de las búsquedas cometiera algunos errores publicitados que generaron una reacción pública en Internet.

El jueves, Liz Reid, directora de Búsqueda de Google, admitió que la empresa estaba limitando los resúmenes generados por IA llamados "Resúmenes de IA". La función impulsada por IA fue criticada cuando comenzó a mostrar contenido que decía a la gente que comiera piedras y pegara queso a su pizza.

Lea también: Google, OpenAI y otros 13 se comprometen a no implementar modelos de IA riesgosos

Google comenzó a mostrar descripciones generales de IA a sus usuarios en Estados Unidos hace dos semanas después de su evento anual I/O, durante el cual lanzó varias ofertas basadas en IA. A partir del jueves, los usuarios notaron menos preguntas, lo que resultó en una respuesta de la IA.

dentdescripciones generales falsas de IA requiere un análisis cuidadoso

Reid escribió en una publicación de blog que personas en las redes sociales compartían capturas de pantalla de descripciones generales de IA que sugerían soluciones extrañas. Dijo que la IA de la compañía cometió algunos errores, pero muchos eran falsos y nunca fueron generados por el sistema de IA de Google.

Google limita las descripciones generales de IA para consultas satíricas y sin sentido
Google AI Overview sugiere pegar queso a la pizza. Fuente .

Admitió que ciertamente aparecieron algunas descripciones generales de IA extrañas o inexactas. Destacó las áreas donde es necesario mejorar la función, pero no son consultas comúnmente buscadas. Al notar los falsos, dijo:

“Por otra parte, se ha compartido ampliamente una gran cantidad de capturas de pantalla falsas. Algunos de estos resultados falsos han sido obvios y tontos”.

Reid dijo que Google no mostró ninguna descripción general de IA para temas como fumar durante el embarazo o dejar perros en los automóviles. Animó a los usuarios que vieron esas capturas de pantalla en las redes sociales a buscarlas y comprobarlas.

La IA de Google ahora puededentcontenido satírico

Googledentque el contenido satírico y las consultas sin sentido eran áreas que debían abordarse para producir resúmenes de IA inexactos. Google dijo eso antes de las capturas de pantalla de la consulta "¿Cuántas piedras debo comer?" se volvió viral, nadie hizo la pregunta. Reid dijo que se puede ver Google Trends para confirmarlo.

Ver también  los accionistas de Berkshire rechazan todas las propuestas de supervisión de DEI y AI

Lea también: Opera integra los modelos Gemini de Google para mejorar la IA del navegador Aria

Otro factor es que hay muy poco contenido disponible sobre un tema específico, lo que también se conoce como falta de datos, lo que también es una razón para que las descripciones generales de la IA sean inexactas. Con respecto a la consulta sobre comer piedras, Reid dijo que la naturaleza satírica del contenido desencadenó la descripción general de la IA. El contenido también fue publicado nuevamente por un sitio web de software geológico, al que se vincula AI Overview. Ella aclaró,

"Entonces, cuando alguien puso esa pregunta en la Búsqueda, apareció una descripción general de IA que vinculaba fielmente a uno de los únicos sitios web que abordaba la pregunta".

Reid no mencionó las otras descripciones generales de IA que circulan en las redes sociales, y muchas editoriales importantes también publicaron informes sobre ellas. Por ejemplo, The Washington Post publicó un informe en Google diciendo a la gente que Barack Obama era musulmán. La publicación también informó sobre otro caso en el que Google AI Overview le dijo a un usuario que las personas deberían beber orina para ayudar a eliminar los cálculos renales.

Google tiene una obsesión con los foros públicos

El jefe de búsqueda de Google señaló que la empresa probó exhaustivamente la función antes de lanzarla al público. También admitió que las prácticas de uso del mundo real son difíciles de simular en la fase de prueba, pero la empresa formó un equipo rojo sólido y tomó muestras de las consultas típicas de los usuarios.  

Lea también: La función de descripción general de IA de Google enfrenta reacciones negativas por resultados inexactos

Algunos usuarios y analistas de contenido de Internet están notando que Google recientemente comenzó a mostrar muchos resultados en foros públicos como Reddit. Algunos cuestionan el acuerdo de la compañía con Reddit, pero un portavoz de Google le dijo a la BBC que tales términos no formaban parte del acuerdo para darle a Reddit más visibilidad en los resultados de búsqueda.

Ver también  Microsoft set para introducir 'carreras de IA para mujeres' en la India

Lily Ray,dent de estrategia e investigación de SEO en Amsive, una agencia de marketing, dice que ahora muchas consultas muestran resultados de Reddit. También se burló de Google en una publicación de X (anteriormente Twitter), diciendo que todo el conocimiento del mundo (contenido de Reddit) se combina con la IA.

Reid dijo que AI Overviews presenta contenido sarcástico de foros de discusión en algunos ejemplos. Dijo que los foros son una buena fuente de información de primera mano, pero en algunos casos, pueden generar respuestas no tan útiles, como pegar queso a una pizza.

La IA de Google también malinterpreta el lenguaje, lo que conduce a información errónea en las descripciones generales de la IA, pero la proporción de tales respuestas es muy baja, según la compañía. Reid señaló que resolvieron los problemas rápidamente mejorando o eliminando respuestas que no cumplían con la política de Google.

El vicepresidente de Búsqueda de Google también dijo que tron para temas como la salud y las noticias. La compañía ha lanzado nuevas mejoras de activación para mejorar la protección de la calidad de la salud. Reid dijo que el sistema de detección también se actualiza para consultas sin sentido para no mostrarlas como resúmenes de IA. También insinuó la confirmación de menos resúmenes de IA para consultas satíricas, diciendo: "Actualizamos nuestros sistemas para limitar el uso de contenido generado por el usuario en respuestas que podrían ofrecer consejos engañosos".


Informe criptopolitano de Aamir Sheikh

Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan