O Google adicionou resultados baseados em imagens à sua experiência de busca com IA nos EUA, expandindo o que antes era uma ferramenta apenas de texto para algo mais prático para usuários que precisam de inspiração visual.
A atualização, anunciada na terça-feira, é uma resposta direta às mudanças na forma como as pessoas usam as ferramentas de busca, especialmente desde o surgimento do ChatGPT da OpenAI no final de 2022.
O Modo IA foi lançado inicialmente em maio como uma forma de responder a perguntas com linguagem simples. Ele lidava com coisas como resumos, defie explicações. Mas esse formato era pouco eficiente para tarefas como perguntas sobre design de interiores ou buscas de moda.
Agora, quando as pessoas digitam frases como "mostre-me uma inspiração maximalista para o meu quarto", o Modo IA do Google retorna imagens geradas automaticamente, dando ao processo de busca uma vantagem visual.
O Modo IA do Google exibe imagens compráveis a partir de sugestões
Essa nova funcionalidade não se limita a projetos de interiores ou painéis de inspiração. Os usuários podem digitar algo como "Calça jeans boca de sino que não seja muito larga" e visualizar instantaneamente imagens dos produtos com opção de compra. Cada imagem contém um link que leva o usuário diretamente ao site do varejista, permitindo compras rápidas sem a necessidade de navegar por resultados de busca genéricos.
Segundo Robby Stein, vice-dent de gestão de produtos da Busca do Google, essa mudança visa atender usuários que “não conseguem explicar o que querem por escrito”. Ele acrescentou: “Se você perguntar sobre comprar sapatos, o resultado será uma descrição de sapatos, quando na verdade as pessoas querem inspiração visual, querem ter a possibilidade de ver o que a modelo está vendo”
Stein também afirmou que os usuários podem refinar os resultados da busca de imagens com sugestões adicionais, como "mostrar mais imagens com estampas mais vibrantes e tons escuros". A atualização eleva o Modo IA do Google a uma nova categoria de interação baseada em buscas, onde os recursos visuais influenciam as decisões mais do que as descrições.
A busca por imagens é alimentada por uma combinação de tecnologias. A empresa afirmou que utiliza o Gemini 2.5, a Busca do Google, o Lens e a Busca de Imagens. Todos esses componentes trabalham em conjunto para gerar e vincular resultados de imagens com base nas informações fornecidas pelo usuário.
Stein chamou a geração de imagens de "um avanço no que é possível", destacando como ela possibilita a descoberta além de simples palavras-chave.
Enquanto isso, a concorrente chinesa DeepSeek lançou na segunda-feira um novo modelo experimental chamado DeepSeek-V3.2-Exp. Ele se baseia em seu modelo anterior, o DeepSeek-V3.1-Terminus, com o objetivo de oferecer melhor desempenho usando menos recursos, conforme Cryptopolitan . A empresa já havia chamado a atenção no ano passado, quando lançou repentinamente seu modelo R1. Essa versão mostrou que grandes modelos de linguagem podiam ser treinados rapidamente, em chips menos potentes, e ainda assim apresentar bom desempenho.
A DeepSeek afirma que esse novo modelo aumenta a eficiência com que a IA lida com grandes quantidades de informações. Mas, mesmo com toda a expectativa, ainda existem dúvidas sobre a segurança e a eficácia da arquitetura. O anúncio foi feito por meio de uma publicação no fórum de IA Hugging Face, onde a startup detalhou seus próximos passos.
Foto de 