Google ha añadido resultados basados en imágenes a su experiencia de búsqueda AI Mode en EE. UU., ampliando lo que solía ser una herramienta de solo texto a algo más práctico para los usuarios que necesitan inspiración visual.
La actualización, anunciada el martes, es una respuesta directa a los cambios en la forma en que las personas utilizan las herramientas de búsqueda, especialmente desde el surgimiento de ChatGPT de OpenAI a fines de 2022.
El Modo IA se lanzó por primera vez en mayo para responder preguntas con un lenguaje sencillo. Gestionaba resúmenes, defiy explicaciones. Sin embargo, ese formato no era eficaz para temas como sugerencias de diseño de interiores o búsquedas de moda.
Ahora, cuando las personas ingresan mensajes como "muéstrame una inspiración maximalista para mi dormitorio", el modo IA de Google devuelve imágenes generadas, lo que le da al proceso de búsqueda un toque visual.
El modo IA de Google muestra imágenes comprables a partir de indicaciones
Esta nueva función no es solo para diseño de interiores o tableros de estilo. Los usuarios pueden escribir algo como "vaqueros de barril que no sean demasiado holgados" y ver al instante imágenes de productos que se pueden comprar. Cada imagen tiene un enlace que lleva directamente al sitio web de la tienda, lo que permite compras rápidas sin necesidad de navegar por resultados de búsqueda genéricos.
Según Robby Stein,dent de gestión de productos de Google Search, este cambio busca atender a los usuarios que "no pueden explicar lo que quieren con texto". Añadió: "Si preguntas sobre comprar zapatos, se describirán los zapatos cuando en realidad la gente busca inspiración visual, quiere poder ver lo que la modelo podría estar viendo"
Stein también indicó que los usuarios pueden refinar los resultados de las imágenes con indicaciones como "mostrar más con estampados más intensos y tonos oscuros". La actualización introduce el Modo IA de Google en una nueva categoría de interacción basada en la búsqueda, donde las imágenes influyen más en las decisiones que las descripciones.
La búsqueda basada en imágenes se basa en una combinación de tecnologías. La compañía afirmó que combina Gemini 2.5, Google Search, Lens y Image Search. Todos estos componentes funcionan en segundo plano para generar y vincular resultados de imágenes según las indicaciones del usuario.
Stein calificó la generación de imágenes como “un gran avance en lo que es posible”, destacando cómo permite el descubrimiento más allá de las simples palabras clave.
Mientras tanto, su rival chino, DeepSeek, lanzó el lunes un nuevo modelo experimental llamado DeepSeek-V3.2-Exp. Este modelo se basa en su modelo anterior, DeepSeek-V3.1-Terminus, y busca ofrecer un mejor rendimiento con menos recursos, según Cryptopolitan . La compañía ya había generado interés el año pasado cuando lanzó su modelo R1 de repente. Esta versión demostró que los modelos de lenguajes grandes podían entrenarse rápidamente, en chips más débiles, y aun así mantenerse.
DeepSeek afirma que este nuevo modelo mejora la eficiencia de la IA para gestionar grandes cantidades de información. Sin embargo, a pesar de la expectación, aún existen dudas sobre la seguridad o eficacia de la arquitectura. El anuncio se realizó mediante una publicación en el foro de IA Hugging Face, donde la startup describió sus próximos pasos.
Foto de 