Google ha rivelato che gli utenti possono utilizzare la funzione "Panoramica audio" per trasformare documenti, slide e persino report di Deep Research in podcast facili da ascoltare. L'azienda ha affermato che consentirà agli utenti di selezionare la nuova opzione "Genera panoramica audio" per ascoltare una panoramica audio basata sulle proprie ricerche.
Google ha inoltre aggiornato Deep Research con Gemini 2.0 Flash Thinking Experimental per potenziare le capacità di Gemini in tutte le fasi di ricerca. L'azienda tecnologica ha affermato che il nuovo aggiornamento aiuterà Gemini a creare report multipagina di qualità superiore, più dettagliati e approfonditi.
Google consente agli utenti di creare podcast basati sull'intelligenza artificiale da Gemini Deep Research
La ricerca approfondita e la panoramica dell'intelligenza artificiale sono una combinazione folle
Puoi imparare qualsiasi cosa generando un report completo e trasformandolo in un podcast.
Gemini fa riferimento a tutte le fonti e si affida a centinaia di siti web.
Un punto di svolta per l'apprendimento. pic.twitter.com/xkpHM9DVKC
– Paul Couvert (@itsPaulAi) 21 marzo 2025
Google ha annunciato che la sua app Gemini consentirà agli utenti di generare panoramiche audio basate su Deep Research. L'azienda ha affermato che gli utenti potranno trasformare i report approfonditi generati da Gemini in un podcast conversazionale con due "conduttori" basati sull'intelligenza artificiale.
“Consideralo un modo per passare da zero a una comprensione approfondita di un argomento.”
-Aarush Selvan, Responsabile prodotto senior Gemini.
l'azienda tecnologica ha lanciato la funzionalità NotebookLM Audio Overview, affermando che è in grado di trasformare i documenti in coinvolgenti discussioni audio. L'azienda ha sottolineato che due moderatori possono avviare vivaci discussioni approfondite basate sulle fonti degli utenti, "stabilire collegamenti tra gli argomenti e scambiarsi battute".
L'azienda ha affermato che l'aggiornamento era pensato per potenziare la funzionalità esistente di NotebookLM, che aiutava gli utenti a interagire con tutti i loro appunti, trascrizioni e altri documenti. Google ha riconosciuto che la funzionalità era solo una versione audio, poiché l'app utilizzava già il modello di intelligenza artificiale Gemini di Google per aiutare a riassumere la ricerca.
Google ha ora introdotto la stessa funzionalità per la Ricerca approfondita, accessibile tramite un'apposita opzione nell'angolo in alto a destra, che include la possibilità di generare una panoramica audio. L'azienda ha inoltre spiegato che gli utenti potranno svolgere più attività contemporaneamente all'ascolto, anche in mobilità, e ritiene che "sia un'ottima cosa assimilare le informazioni in questo modo".
Logan Kilpatrick, responsabile del prodotto per Google AI Studio, ha affermato che Deep Research lo ha lasciato senza parole perché gli ha permesso di esplorare 145 siti diversi in base alla sua query.
Google ha inoltre introdotto la Panoramica Audio nell'app Gemini all'inizio di questa settimana, disponibile per gli utenti gratuiti e gli abbonati avanzati. L'azienda tecnologica ha affermato che la funzionalità sarà più utile per Deep Research, la sua funzionalità di intelligenza artificiale "agentica". Google ha affermato che la funzionalità consentirà agli utenti di chiedere a Gemini di esplorare un argomento specifico dal web e generare un report dettagliato basato sui risultati. Secondo l'azienda, gli utenti potranno selezionare la nuova opzione "Genera Panoramica Audio" al termine della generazione del report da parte di Gemini. La funzionalità consentirà inoltre agli utenti di ascoltare una panoramica audio basata sulla ricerca.
Google ha anche sottolineato che la funzionalità "Panoramica Audio" presentava alcune limitazioni, per cui la generazione di una discussione in stile podcast poteva richiedere diversi minuti. L'azienda ha inoltre affermato che la funzionalità poteva generare discussioni in stile podcast solo in inglese, con l'aggiunta di altre lingue in un secondo momento. L'azienda ha sottolineato che la funzionalità "Panoramica Audio" sarà accessibile sul web e nell'app mobile Gemini, e che gli utenti potranno facilmente condividerla o scaricarla per ascoltarla ovunque si trovino.
Google introduce la modalità sperimentale Flash Thinking di Gemini 2.0
L'azienda tecnologica ha anche presentato l'ultima funzionalità di Gemini chiamata "Canvas", che perfeziona i documenti e il codice degli utenti e la Panoramica audio trasformandoli in coinvolgenti discussioni in stile podcast. Il CEO di Google, Sundar Pichai, ha affermato che gli utenti possono creare un documento o un progetto di programmazione con Canvas perché "genera prototipi in modo estremamente rapido e consente di modificarli in tempo reale con Gemini".
Google ha inoltre introdotto il 17 marzo la modalità sperimentale Gemini 2.0 Flash Thinking, in grado di analizzare la cronologia delle ricerche degli utenti per comprenderne meglio gli interessi e fornire risposte più utili. L'azienda ha affermato che il modello è stato addestrato a scomporre le richieste in una serie di passaggi per rafforzare le sue capacità di ragionamento e offrire risposte migliori.
Google ha inoltre sottolineato che gli utenti di Gemini Advanced avranno accesso a una finestra di contesto da 1 milione di token con Flash Thinking Experimental 2.0. L'azienda tecnologica ha affermato che ciò consentirà agli utenti di risolvere problemi più complessi che mai, sperimentando e analizzando grandi quantità di informazioni.

