Google ha revelado que los usuarios pueden usar Audio Overview para convertir documentos, diapositivas e incluso informes de investigación profunda en podcasts fáciles de escuchar. La empresa anunció que permitirá a los usuarios seleccionar la nueva opción "Generar Audio Overview" para escuchar un audio basado en su investigación.
Google también actualizó Deep Research con Gemini 2.0 Flash Thinking Experimental para optimizar las capacidades de Gemini en todas las etapas de investigación. La empresa tecnológica afirmó que la nueva actualización permitirá a Gemini crear informes de varias páginas de mayor calidad, más detallados y esclarecedores.
Google permite a los usuarios crear podcasts de IA desde Gemini Deep Research
La investigación profunda y la visión general de la IA son una combinación increíble
Puedes aprender cualquier cosa generando un informe completo y convirtiéndolo en un podcast.
Gemini hace referencia a todas las fuentes y se basa en cientos de sitios web.
Un punto de inflexión para el aprendizaje. pic.twitter.com/xkpHM9DVKC
– Paul Couvert (@itsPaulAi) 21 de marzo de 2025
Google anunció que su aplicación Gemini permitirá a los usuarios generar resúmenes de audio basados en Deep Research. La compañía afirmó que los usuarios podrán convertir los informes detallados generados por Gemini en un podcast conversacional con dos presentadores de IA.
“Piensa en ello como una ayuda para pasar de cero a comprender un tema en profundidad”
-Aarush Selvan, Gerente Senior de Producto de Gemini.
La empresa tecnológica lanzó su función NotebookLM Audio Overview el pasado septiembre y afirmó que puede convertir documentos en interesantes debates de audio. La compañía destacó que dos anfitriones pueden iniciar debates dinámicos y profundos basados en las fuentes de los usuarios, establecer conexiones entre temas e intercambiar ideas.
La empresa afirmó que la actualización buscaba ampliar la función existente de NotebookLM, que permitía a los usuarios interactuar con todas sus notas, transcripciones y otros documentos. Google reconoció que la función solo era una versión de audio, ya que la aplicación ya utilizaba el modelo de inteligencia artificial Gemini de Google para resumir la investigación.
Google ha introducido ahora la misma función para Deep Research, a la que se puede acceder activando el interruptor de la esquina superior derecha, que ofrece varias opciones, incluida una para generar un resumen en audio. La compañía también indicó que los usuarios podrán realizar varias tareas a la vez mientras escuchan, incluso en movimiento, y considera que «es ideal si así se asimila mejor la información».
Logan Kilpatrick, director de producto de Google AI Studio, mencionó que Deep Research lo sorprendió porque pudo explorar 145 sitios diferentes en función de su consulta.
Google también introdujo la función Audio Overview en la app Gemini para usuarios gratuitos y suscriptores avanzados a principios de esta semana. La compañía tecnológica mencionó que esta función será más útil para Deep Research, su función de IA "agentic". Google afirmó que esta función permitirá a los usuarios usar Gemini para explorar un tema específico de la web y generar un informe detallado basado en sus hallazgos. Según la empresa, los usuarios pueden seleccionar la nueva opción "Generar Audio Overview" después de que Gemini termine de generar el informe. Esta función también permitirá a los usuarios escuchar un audio de la investigación.
Google también mencionó que Audio Overview tenía algunas limitaciones, ya que podía tardar varios minutos en generar una conversación similar a un podcast. La compañía también indicó que la función solo podía generar conversaciones similares a un podcast en inglés, y que próximamente se añadirían más idiomas. La empresa destacó que Audio Overview estará disponible en la web y en la aplicación móvil de Gemini, y que los usuarios podrán compartirla o descargarla fácilmente para escucharla dondequiera que estén.
Google presenta el modo experimental Gemini 2.0 Flash Thinking
La empresa tecnológica también reveló la última función de Gemini, llamada "Canvas", que optimiza los documentos, el código y las vistas previas de audio de los usuarios, transformándolos en atractivas conversaciones al estilo de un podcast. El CEO de Google, Sundar Pichai, afirmó que los usuarios pueden crear un documento o un proyecto de programación con Canvas porque "genera prototipos a gran velocidad y se pueden editar con Gemini en tiempo real".
Google también presentó el 17 de marzo el modo experimental Gemini 2.0 Flash Thinking, que analiza el historial de búsqueda de los usuarios para comprender mejor sus intereses y ofrecer respuestas más útiles. La compañía afirmó que el modelo fue entrenado para desglosar las preguntas en una serie de pasos, lo que fortalece su capacidad de razonamiento y proporciona mejores respuestas.
Google también destacó que los usuarios de Gemini Advanced tendrán acceso a una ventana de contexto de 1 millón de tokens con Flash Thinking Experimental 2.0. La compañía tecnológica afirmó que esto permitirá a los usuarios resolver problemas más complejos que nunca mediante la experimentación y el análisis de grandes cantidades de información.

