Google a annoncé que les utilisateurs peuvent désormais utiliser la fonctionnalité « Aperçu audio » pour transformer des documents, des diapositives et même des rapports de recherche approfondie en podcasts faciles à écouter. L'entreprise a précisé qu'une nouvelle option, « Générer un aperçu audio », permettra aux utilisateurs d'écouter un résumé audio de leurs recherches.
Google a également mis à jour Deep Research avec Gemini 2.0 Flash Thinking Experimental afin d'améliorer les capacités de Gemini à toutes les étapes de la recherche. L'entreprise technologique a indiqué que cette mise à jour permettra à Gemini de générer des rapports multipages de meilleure qualité, plus détaillés et plus pertinents.
Google permet aux utilisateurs de créer des podcasts d'IA à partir de recherches approfondies de Gemini
Recherche approfondie et aperçu de l'IA forment une combinaison incroyable
On peut tout apprendre en générant un rapport complet et en le transformant en podcast.
Gemini cite toutes ses sources et s'appuie sur des centaines de sites web.
Une révolution dans l'apprentissage. pic.twitter.com/xkpHM9DVKC
– Paul Couvert (@itsPaulAi) 21 mars 2025
Google a annoncé que son application Gemini permettra aux utilisateurs de générer des synthèses audio à partir de recherches approfondies. L'entreprise a précisé que les utilisateurs pourront transformer les rapports détaillés produits par Gemini en podcasts interactifs animés par deux « animateurs » IA.
« Voyez cela comme une aide pour passer de zéro à une compréhension approfondie d'un sujet. »
-Aarush Selvan, chef de produit senior Gemini.
L'entreprise technologique a lancé sa fonctionnalité NotebookLM Audio Overview en septembre dernier et a indiqué qu'elle permet de transformer des documents en discussions audio interactives. Elle a souligné que deux animateurs peuvent ainsi lancer des discussions approfondies et dynamiques à partir des sources des utilisateurs, établir des liens entre les sujets et échanger de manière conviviale.
L'entreprise a indiqué que cette mise à jour visait à enrichir la fonctionnalité existante de NotebookLM permettant aux utilisateurs d'interagir avec leurs notes, transcriptions et autres documents. Google a reconnu que cette fonctionnalité était uniquement disponible en version audio, l'application utilisant déjà le modèle d'intelligence artificielle Gemini de Google pour la synthèse des recherches.
Google a désormais intégré cette fonctionnalité à la Recherche approfondie. On y accède en cliquant sur le bouton situé en haut à droite, qui propose plusieurs options, dont la génération d'un aperçu audio. L'entreprise précise également que les utilisateurs pourront effectuer plusieurs tâches simultanément pendant l'écoute, même en déplacement, et estime que « cette méthode est idéale pour mieux assimiler les informations ».
Logan Kilpatrick, responsable produit chez Google AI Studio, a indiqué que Deep Research l'avait impressionné car il avait pu explorer 145 sites différents en fonction de sa requête.
Google a également intégré la fonctionnalité « Aperçu audio » à l'application Gemini, accessible gratuitement aux utilisateurs et aux abonnés premium, en début de semaine. L'entreprise a précisé que cette fonctionnalité serait particulièrement utile pour la Recherche approfondie, son système d'IA « agentif ». Google a indiqué que cette fonctionnalité permettra aux utilisateurs de solliciter Gemini pour explorer un sujet précis sur le web et générer un rapport détaillé basé sur ses recherches. Une fois le rapport généré par Gemini, les utilisateurs pourront sélectionner l'option « Générer un aperçu audio ». Cette fonctionnalité leur permettra également d'écouter un aperçu audio de la recherche.
Google a également indiqué que la fonctionnalité « Aperçu audio » présentait certaines limitations : la génération d'une discussion de type podcast pouvait prendre plusieurs minutes. L'entreprise a précisé que cette fonctionnalité ne permettait pour l'instant de générer que des discussions en anglais, d'autres langues étant prévues ultérieurement. Google a souligné que « Aperçu audio » serait accessible sur le web et via l'application mobile Gemini, et que les utilisateurs pourraient facilement partager ou télécharger les enregistrements pour les écouter en déplacement.
Google présente Gemini 2.0, un mode expérimental de réflexion éclair
Google a également dévoilé la nouvelle fonctionnalité de Gemini, baptisée « Canvas », qui affine les documents, le code et la prévisualisation audio des utilisateurs pour les transformer en discussions captivantes, façon podcast. Sundar Pichai, PDG de Google, a déclaré que Canvas permet de créer des projets de documentation ou de programmation très rapidement, et qu'il est possible de les modifier en temps réel avec Gemini.
Google a également lancé le 17 mars le mode expérimental Gemini 2.0 Flash Thinking, capable d'analyser l'historique de recherche des utilisateurs afin de mieux comprendre leurs centres d'intérêt et de leur fournir des réponses plus pertinentes. L'entreprise a précisé que le modèle avait été entraîné à décomposer les requêtes en une série d'étapes pour renforcer ses capacités de raisonnement et offrir de meilleures réponses.
Google a également souligné que les utilisateurs de Gemini Advanced auront accès à une fenêtre de contexte d'un million de jetons grâce à la fonctionnalité expérimentale Flash Thinking 2.0. L'entreprise technologique a indiqué que cela permettra aux utilisateurs de résoudre des problèmes plus complexes que jamais en expérimentant et en analysant de grandes quantités d'informations.

