Google a révélé que les utilisateurs peuvent utiliser une vue d'ensemble audio pour transformer les documents, les diapositives et même les rapports de recherche profonds en podcasts faciles à inscrire. La société a déclaré qu'elle permettra aux utilisateurs de sélectionner une nouvelle option «Générer un aperçu audio» pour écouter un aperçu audio basé sur leurs recherches.
Google a également mis à niveau les recherches approfondies avec des Gemini 2.0 Flash Thinking Experimental pour améliorer les capacités de Gemini à toutes les étapes de recherche. La société technologique a déclaré que la nouvelle mise à niveau aidera les Gémeaux à créer des rapports de plusieurs pages de meilleure qualité qui seront plus détaillés et perspicaces.
Google permet aux utilisateurs de fabriquer des podcasts AI à partir de la recherche profonde de Gemini
La recherche profonde et la vue d'ensemble de l'IA sont un combo fou
Vous pouvez tout apprendre en générant un rapport complet et en le transformant en podcast.
Gemini fait référence à toutes les sources et s'appuie sur des centaines de sites Web.
Changeur de jeu pour l'apprentissage. pic.twitter.com/xkphm9dvkc
- Paul Couvert (@itspaulai) 21 mars 2025
Google a annoncé que son application Gemini permettra aux utilisateurs de générer des aperçus audio basés sur des recherches approfondies. La société a déclaré que les utilisateurs peuvent transformer des rapports approfondis générés par les Gémeaux en un podcast conversationnel avec deux «hôtes» d'IA.
"Pensez-y à vous aider à passer de zéro à la compréhension profondément d'un sujet."
-Aarush Selvan, Gemini Senior Product Manager.
La société technologique a publié sa fonction de vue d'ensemble de NotebookLM en septembre dernier et a déclaré qu'elle peut transformer les documents en discussions audio engageantes. La société a souligné que deux hôtes peuvent démarrer des discussions vives de «plongée profonde» en fonction des sources des utilisateurs, «établir des liens entre les sujets et les plaisanteries dans les deux sens».
La société a déclaré que la mise à niveau devait s'appuyer sur la fonctionnalité existante de NoteBookLM qui a aidé les utilisateurs à interagir avec toutes leurs notes, transcriptions et autres documents. Google a reconnu que la fonctionnalité n'était qu'une version audio, car l'application utilisait déjà le modèle Gemini AI de Google pour aider à résumer la recherche.
Google a maintenant introduit la même fonctionnalité pour la recherche approfondie, qui peut être accessible lorsque les utilisateurs basculent dans le coin droit qui a quelques options différentes, dont une pour générer un aperçu audio. L'entreprise a également partagé que les utilisateurs pourront effectuer plusieurs tâches en écoutant, même en déplacement, et il pense que «c'est génial si vous absorbez mieux les informations de cette façon».
Le produit principal de Google AI Studio, Logan Kilpatrick, a mentionné que Deep Research l'a époustouflé parce qu'il a pu parcourir 145 sites différents en fonction de sa requête.
Google a également introduit une vue d'ensemble audio sur l'application Gemini pour les utilisateurs gratuits et les abonnés avancés plus tôt cette semaine. La société technologique a mentionné que la fonctionnalité sera plus utile pour la recherche approfondie, sa fonctionnalité d'IA «agentique». Google a déclaré que la fonctionnalité permettra aux utilisateurs d'appeler Gemini pour explorer un sujet spécifique du Web et générer un rapport détaillé basé sur ses résultats. Selon l'entreprise, les utilisateurs peuvent sélectionner une nouvelle option «Générer un aperçu audio» une fois que Gemini a terminé la génération d'un rapport. La fonctionnalité permettra également aux utilisateurs d'écouter un aperçu audio basé sur la recherche.
Google a également mentionné que la vue d'ensemble audio avait certaines limites où cela pouvait prendre plusieurs minutes pour générer une discussion de type podcast. La société a également déclaré que la fonctionnalité ne pouvait générer une discussion de type podcast en anglais, avec plus de langues à une date ultérieure. La firme a souligné que la vue d'ensemble audio sera accessible sur le Web et dans l'application mobile Gemini, et les utilisateurs peuvent facilement les partager ou les télécharger pour écouter en déplacement.
Google présente le mode expérimental de pensée Flash Gemini 2.0
La société technologique a également révélé la dernière fonctionnalité de Gemini appelée «Canvas», qui affine les documents et le code et le code audio et les transforment en discussions engageantes de style podcast. Le PDG de Google, Sundar Pichai, a déclaré que les utilisateurs peuvent créer un DOC ou un projet de codage avec Canvas car «il fait tourner les prototypes super rapidement, et vous pouvez modifier avec Gemini en temps réel».
Google a également introduit le mode expérimental Gemini 2.0 Flash Thinking le 17 mars, qui peut analyser l'historique de recherche des utilisateurs pour mieux comprendre leurs intérêts et fournir des réponses plus utiles. La firme a déclaré que le modèle avait été formé pour décomposer les invites dans une série d'étapes pour renforcer ses capacités de raisonnement et fournir de meilleures réponses.
Google a également souligné que les utilisateurs avancés de Gemini auront accès à une fenêtre de contexte de jeton 1M avec une réflexion Flash 2.0 Experimental. La société de technologie a déclaré qu'elle permettra aux utilisateurs de résoudre des problèmes plus complexes que jamais en expérimentant et en analysant de grandes quantités d'informations.
Cryptopolitan Academy: Vous voulez développer votre argent en 2025? Apprenez à le faire avec DeFi dans notre prochaine webclass. Enregistrez votre place