O Google revelou que os usuários podem usar o recurso Visão Geral em Áudio para transformar documentos, slides e até mesmo relatórios de Pesquisa Avançada em podcasts fáceis de ouvir. A empresa afirmou que permitirá aos usuários selecionar uma nova opção "Gerar Visão Geral em Áudio" para ouvir um resumo em áudio com base em sua pesquisa.
O Google também atualizou o Deep Research com o Gemini 2.0 Flash Thinking Experimental para aprimorar os recursos do Gemini em todas as etapas da pesquisa. A empresa de tecnologia afirmou que a nova atualização ajudará o Gemini a criar relatórios de várias páginas com maior qualidade, mais detalhados e perspicazes.
O Google permite que os usuários criem podcasts com IA a partir da Gemini Deep Research
A combinação de Pesquisa Aprofundada e Visão Geral de IA é incrível
Você pode aprender qualquer coisa gerando um relatório completo e transformando-o em um podcast.
Gemini consulta todas as fontes e se baseia em centenas de sites.
Uma ferramenta revolucionária para o aprendizado. pic.twitter.com/xkpHM9DVKC
-Paul Couvert (@itsPaulAi) 21 de março de 2025
O Google anunciou que seu aplicativo Gemini permitirá aos usuários gerar resumos em áudio com base em pesquisas avançadas. A empresa afirmou que os usuários poderão transformar relatórios detalhados gerados pelo Gemini em um podcast conversacional com dois "apresentadores" de IA.
“Pense nisso como uma forma de ajudá-lo a ir do zero ao entendimento profundo de um assunto.”
-Aarush Selvan, gerente de produto sênior da Gemini.
A empresa de tecnologia lançou seu recurso NotebookLM Audio Overview em setembro passado e afirmou que ele pode transformar documentos em discussões de áudio envolventes. A empresa destacou que dois apresentadores podem iniciar discussões animadas e aprofundadas com base nas fontes dos usuários, "estabelecer conexões entre tópicos e interagir de forma descontraída".
A empresa afirmou que a atualização visava aprimorar o recurso já existente do NotebookLM, que permitia aos usuários interagir com todas as suas anotações, transcrições e outros documentos. O Google reconheceu que o recurso era apenas uma versão em áudio, visto que o aplicativo já utilizava o modelo de IA Gemini do Google para auxiliar na síntese de pesquisas.
O Google agora introduziu o mesmo recurso para a Pesquisa Avançada, que pode ser acessado ao ativar/desativar a opção no canto superior direito, que oferece diversas alternativas, incluindo uma para gerar um resumo em áudio. A empresa também informou que os usuários poderão realizar outras tarefas enquanto ouvem, mesmo em movimento, e acredita que "é ótimo se você absorver informações melhor dessa forma".
Logan Kilpatrick, líder de produto do Google AI Studio, mencionou que o Deep Research o impressionou porque ele conseguiu navegar por 145 sites diferentes com base em sua pesquisa.
O Google também lançou o Resumo em Áudio para o aplicativo Gemini, tanto para usuários gratuitos quanto para assinantes avançados, no início desta semana. A empresa de tecnologia mencionou que o recurso será mais útil para a Pesquisa Profunda, seu recurso de IA "agente". O Google afirmou que o recurso permitirá que os usuários solicitem ao Gemini que explore um tópico específico na web e gere um relatório detalhado com base em suas descobertas. De acordo com a empresa, os usuários poderão selecionar a nova opção "Gerar Resumo em Áudio" após o Gemini concluir a geração do relatório. O recurso também permitirá que os usuários ouçam um resumo em áudio baseado na pesquisa.
O Google também mencionou que o recurso Visão Geral em Áudio tinha algumas limitações, como o tempo de espera para gerar uma discussão semelhante a um podcast. A empresa também afirmou que o recurso só podia gerar discussões em formato de podcast em inglês, com mais idiomas a serem adicionados posteriormente. A empresa destacou que a Visão Geral em Áudio estará acessível na web e no aplicativo móvel Gemini, e os usuários poderão facilmente compartilhar ou baixar os áudios para ouvir em qualquer lugar.
O Google apresenta o modo experimental Gemini 2.0 Flash Thinking
A empresa de tecnologia também revelou o mais recente recurso do Gemini, chamado "Canvas", que aprimora os documentos, o código e a Visão Geral em Áudio dos usuários, transformando-os em discussões envolventes no estilo de podcast. O CEO do Google, Sundar Pichai, afirmou que os usuários podem criar um documento ou um projeto de programação com o Canvas porque "ele gera protótipos super-rápidos e você pode editar com o Gemini em tempo real".
O Google também apresentou o modo experimental Gemini 2.0 Flash Thinking em 17 de março, capaz de analisar o histórico de buscas dos usuários para entender melhor seus interesses e fornecer respostas mais úteis. A empresa afirmou que o modelo foi treinado para decompor as perguntas em uma série de etapas, a fim de fortalecer sua capacidade de raciocínio e oferecer respostas mais precisas.
O Google também destacou que os usuários do Gemini Advanced terão acesso a uma janela de contexto de 1 milhão de tokens com o Flash Thinking Experimental 2.0. A empresa de tecnologia afirmou que isso permitirá aos usuários resolver problemas mais complexos do que nunca, experimentando e analisando grandes quantidades de informações.

