Google ha revelado que los usuarios pueden usar una descripción general de audio para convertir documentos, diapositivas e incluso informes de investigación profundos en podcasts fáciles de listar. La firma dijo que permitirá a los usuarios seleccionar una nueva opción de "generar audio general" para escuchar una descripción general de audio basada en su investigación.
Google también actualizó una investigación profunda con Gemini 2.0 Flash Thinking Experimental para mejorar las capacidades de Gemini en todas las etapas de investigación. La firma de tecnología dijo que la nueva actualización ayudará a Géminis a crear informes de mayor calidad y varias páginas que serán más detallados y perspicaces.
Google permite a los usuarios hacer podcasts de IA de Gemini Deep Research
La investigación profunda y la descripción general de la IA son un combo loco
Puede aprender cualquier cosa generando un informe completo y convirtiéndolo en un podcast.
Gemini hace referencia a todas las fuentes y se basa en cientos de sitios web.
Cambiador de juego para aprender. pic.twitter.com/xkphm9dvkc
- Paul Couvert (@itspaulai) 21 de marzo de 2025
Google anunció que su aplicación Gemini permitirá a los usuarios generar descripciones de audio basadas en investigaciones profundas. La firma dijo que los usuarios pueden convertir los informes en profundidad generados por Gemini en un podcast conversacional con dos "anfitriones" de IA.
"Piense en ello como ayudarlo a pasar de cero a comprender profundamente un tema".
-Aarush Selvan, gerente de producto senior de Gemini.
La firma de tecnología publicó su función de descripción general de audio de NotebookLM en septiembre pasado y dijo que puede convertir los documentos para involucrar discusiones de audio. La compañía destacó que dos hosts pueden iniciar discusiones animadas de "buceo profundo" basados en las fuentes de los usuarios, "hacer conexiones entre temas y bromas de un lado a otro".
La firma dijo que la actualización estaba destinada a construir en la función existente de NotebookLM que ayudó a los usuarios a interactuar con todas sus notas, transcripciones y otros documentos. Google reconoció que la función era solo una versión de audio ya que la aplicación ya usaba el modelo Gemini AI de Google para ayudar a resumir la investigación.
Google ha introducido la misma característica para investigaciones profundas, a la que se puede acceder cuando los usuarios se alternan en la esquina derecha que tiene algunas opciones diferentes, incluida una para generar una descripción general de audio. La firma también compartió que los usuarios podrán realizar múltiples tareas mientras escuchan, incluso sobre la marcha, y cree que "es genial si absorbe mejor información de esa manera".
Producto principal para Google AI Studio Logan Kilpatrick mencionó que la investigación profunda lo dejó impresionando porque pudo explorar 145 sitios diferentes basados en su consulta.
Google también presentó una descripción general de audio en la aplicación Gemini para usuarios gratuitos y suscriptores avanzados a principios de esta semana. La compañía de tecnología mencionó que la función será más útil para investigaciones profundas, su función de IA "agente". Google dijo que la función permitirá a los usuarios recurrir a Gemini para explorar un tema específico de la web y generar un informe detallado basado en sus hallazgos. Según la empresa, los usuarios pueden seleccionar una nueva opción de "generar audio general" después de que Gemini termine de generar un informe. La función también permitirá a los usuarios escuchar una descripción general de audio basada en la investigación.
Google también mencionó que la descripción general de audio tenía algunas limitaciones en las que podría llevar varios minutos generar una discusión similar a un podcast. La compañía también dijo que la característica solo podía generar una discusión similar a un podcast en inglés, con más idiomas por venir en una fecha posterior. La firma destacó que se puede acceder a la descripción general de audio en la web y en la aplicación móvil Gemini, y los usuarios pueden compartirlos o descargarlos fácilmente para escuchar sobre la marcha.
Google presenta el modo experimental Gemini 2.0 Flash Thinking
La firma de tecnología también reveló la última característica de Gemini llamada "Canvas", que refina los documentos y el código de los usuarios y la descripción general de audio y los transforma en interesantes discusiones al estilo de podcast. El CEO de Google, Sundar Pichai, dijo que los usuarios pueden crear un documento o proyecto de codificación con lienzo porque "gira los prototipos súper rápido, y puede editar con Gemini en tiempo real".
Google también presentó el modo experimental Gemini 2.0 Flash Thinking el 17 de marzo, que puede analizar el historial de búsqueda de los usuarios para comprender mejor sus intereses y proporcionar respuestas más útiles. La firma dijo que el modelo fue entrenado para desglosar las indicaciones en una serie de pasos para fortalecer sus capacidades de razonamiento y ofrecer mejores respuestas.
Google también destacó que los usuarios avanzados de Gemini tendrán acceso a una ventana de contexto token de 1M con 2.0 Flash Thinking Experimental. La compañía de tecnología dijo que permitirá a los usuarios resolver problemas más complejos que nunca antes experimentando y analizando grandes cantidades de información.
Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar