Google hat angekündigt, dass Nutzer mit der Funktion „Audioübersicht“ Dokumente, Präsentationen und sogar Deep-Research-Berichte in leicht verständliche Podcasts umwandeln können. Das Unternehmen erklärte, dass Nutzer die neue Option „Audioübersicht generieren“ auswählen können, um sich eine Audioübersicht basierend auf ihren Recherchen anhören zu können.
Google hat Deep Research mit Gemini 2.0 Flash Thinking Experimental aktualisiert, um die Leistungsfähigkeit von Gemini in allen Forschungsphasen zu verbessern. Das Technologieunternehmen erklärte, dass das neue Upgrade Gemini dabei helfen wird, qualitativ hochwertigere, mehrseitige Berichte zu erstellen, die detaillierter und aufschlussreicher sind.
Google ermöglicht es Nutzern, KI-Podcasts mit Hilfe von Gemini Deep Research zu erstellen
Deep Research und AI Overview sind eine wahnsinnige Kombination
Man kann alles lernen, indem man einen vollständigen Bericht erstellt und diesen in einen Podcast umwandelt.
Gemini bezieht sich auf alle Quellen und stützt sich auf Hunderte von Websites.
Revolutionär fürs Lernen. pic.twitter.com/xkpHM9DVKC
– Paul Couvert (@itsPaulAi) 21. März 2025
Google hat angekündigt , dass seine Gemini-App es Nutzern ermöglichen wird, auf Basis von Deep Research Audio-Übersichten zu erstellen. Das Unternehmen erklärte, dass Nutzer die von Gemini generierten detaillierten Berichte in einen interaktiven Podcast mit zwei KI-„Moderatoren“ umwandeln können.
„Betrachten Sie es als Hilfe, die Ihnen hilft, ein Thema von Grund auf zu verstehen und tiefgründig zu erfassen.“
-Aarush Selvan, Gemini Senior Product Manager.
Das Technologieunternehmen veröffentlichte im vergangenen September seine Funktion NotebookLM Audio Overview und erklärte, dass sich damit Dokumente in interaktive Audiodiskussionen verwandeln lassen. Das Unternehmen hob hervor, dass zwei Moderatoren auf Basis der Quellen der Nutzer lebhafte, tiefgründige Diskussionen starten, „Verbindungen zwischen Themen herstellen und sich austauschen können“.
Das Unternehmen erklärte, das Upgrade solle die bestehende Funktion von NotebookLM erweitern, die Nutzern die Interaktion mit all ihren Notizen, Transkripten und anderen Dokumenten erleichtert. Google räumte ein, dass es sich bei der neuen Funktion lediglich um eine Audioversion handle, da die App bereits Googles KI-Modell Gemini zur Zusammenfassung von Forschungsergebnissen nutze.
Google hat diese Funktion nun auch für Deep Research eingeführt. Nutzer können sie über ein Menüsymbol in der rechten Ecke aufrufen, das verschiedene Optionen bietet, darunter eine zum Generieren einer Audioübersicht. Das Unternehmen teilte außerdem mit, dass Nutzer während des Hörens parallel anderen Tätigkeiten nachgehen können, auch unterwegs, und ist überzeugt: „Es ist großartig, wenn man Informationen so besser aufnimmt.“
Logan Kilpatrick, Produktchef bei Google AI Studio, erwähnte , dass ihn Deep Research umgehauen habe, weil er anhand seiner Suchanfrage 145 verschiedene Websites durchsuchen konnte.
Google hat Anfang der Woche die Funktion „Audioübersicht“ in der Gemini-App für kostenlose Nutzer und Premium-Abonnenten eingeführt. Das Technologieunternehmen erklärte, die Funktion sei besonders hilfreich für Deep Research, die KI-Funktion mit dem Zusatz „Agenten“. Nutzer können Gemini nun beauftragen, ein bestimmtes Thema im Web zu recherchieren und einen detaillierten Bericht basierend auf den Ergebnissen zu erstellen. Nach Abschluss der Berichtserstellung steht Nutzern die Option „Audioübersicht generieren“ zur Verfügung. Anschließend können sie sich die Ergebnisse der Recherche als Audioübersicht anhören.
Google wies außerdem darauf hin, dass die Audio-Übersicht einige Einschränkungen aufweist und die Generierung einer podcastähnlichen Diskussion mehrere Minuten dauern kann. Das Unternehmen erklärte zudem, dass die Funktion derzeit nur englische Podcast-ähnliche Diskussionen ermöglicht; weitere Sprachen sollen später folgen. Google betonte, dass die Audio-Übersicht sowohl im Web als auch in der Gemini-App verfügbar sein wird und Nutzer sie einfach teilen oder herunterladen können, um sie unterwegs anzuhören.
Google stellt den experimentellen Gemini 2.0 Flash Thinking-Modus vor
Das Technologieunternehmen stellte die neueste Funktion von Gemini vor: „Canvas“. Diese Funktion optimiert Dokumente, Code und Audioübersicht der Nutzer und wandelt sie in interaktive Diskussionen im Podcast-Stil um. Google-CEO Sundar Pichai erklärte , dass Nutzer mit Canvas Dokumente oder Programmierprojekte erstellen können, da „Prototypen blitzschnell generiert werden und die Bearbeitung mit Gemini in Echtzeit möglich ist.“
Google stellte am 17. März außerdem den experimentellen Modus „Gemini 2.0 Flash Thinking“ vor. Dieser analysiert den Suchverlauf der Nutzer, um deren Interessen besser zu verstehen und relevantere Antworten zu liefern. Laut Google wurde das Modell darauf trainiert, Suchanfragen in einzelne Schritte zu unterteilen, um seine Denkfähigkeit zu verbessern und präzisere Antworten zu geben.
Google hob außerdem hervor, dass Gemini Advanced-Nutzer mit Flash Thinking Experimental 2.0 Zugriff auf ein Kontextfenster mit 1 Million Token erhalten werden. Das Technologieunternehmen erklärte, dass dies Nutzern ermöglichen werde, durch Experimentieren und Analysieren großer Datenmengen komplexere Probleme als je zuvor zu lösen.

