Google hat angekündigt, die Echtzeit-KI-Funktionen von Gemini einzuführen. Das KI-System kann damit Smartphone-Bildschirme und Kamerabilder sofort analysieren. Diese Funktionen stehen ausgewählten Abonnenten von Google One AI Premium zur Verfügung.
Die neue Funktion folgte auf Googles erste „Project Astra“-Demonstration vor knapp einem Jahr und erweiterte Gemini Live um Kamera- und Bildschirmübertragungsfunktionen. Google gab bekannt, dass Gemini mit der neuen Live-Videofunktion das Bildmaterial der Smartphone-Kameras der Nutzer in Echtzeit interpretieren und Fragen beantworten kann.
Das Technologieunternehmen veröffentlichte Anfang dieses Monats ein Video, das die Verwendung der Live-Videofunktion von Gemini zur Auswahl einer Farbe für frisch glasierte Keramik demonstriert.
Google führt die Echtzeit-KI-Videofunktionen von Gemini ein
Die neue Funktion ermöglicht es Nutzern außerdem, in Echtzeit mit Gemini über den Bildschirm-Feed zu kommunizieren. Ein Nutzer griff auf die Funktion „Bildschirm mit Live teilen“ zu, indem er auf die Schaltfläche über dem Textfeld „Gemini fragen“ im Gemini-Overlay tippte.

Der Reddit-Nutzer veröffentlichte ein Video, das die neue Bildschirmlesefunktion von Gemini demonstriert. Diese Funktion gehört zu den beiden Features, das Technologieunternehmen laut eigenen Angaben noch in diesem Monat für Gemini Advanced-Abonnenten im Rahmen des Google One AI Premium-Plans einführen wird. Die Echtzeit-Kamerafunktionen sind über die vollständige Gemini Live-Oberfläche und einen gestarteten Videostream zugänglich.
Google bekräftigte, dass Gemini Live eine neue Benachrichtigung im Stil von Telefonanrufen und eine kompaktere Vollbild-Oberfläche nutzen würde, obwohl diese Funktionen noch nicht flächendeckend verfügbar waren. Das Technologieunternehmen bestätigte im Januar außerdem, dass Besitzer von Pixel-Geräten (und der Galaxy S25-Serie) zu den Ersten gehören würden, die Project-Astra-Funktionen wie Bildschirmfreigabe und Live-Videostreaming nutzen können
Google führt Canvas- und Audio-Übersichtsfunktionen ein
Wir stellen heute Canvas und Audio Overview in der @GeminiApp . Verwandeln Sie Dokumente, Präsentationen und Deep-Research-Berichte mit Audio Overview in Podcasts. Oder erstellen Sie mit Canvas ein Dokument oder ein Programmierprojekt – es generiert blitzschnell Prototypen, die Sie in Echtzeit mit Gemini bearbeiten können. pic.twitter.com/tEdlZoSqeS
– Sundar Pichai (@sundarpichai) 18. März 2025
Google hat am 18. März außerdem veröffentlicht , mit der Nutzer ihre Dokumente und ihren Code bearbeiten können. Das Unternehmen bestätigte, dass Nutzer „Canvas“ in ihrer Eingabeaufforderung auswählen können, um dort Dokumente oder Code zu schreiben und zu bearbeiten. Änderungen werden in Echtzeit angezeigt.
Das Technologieunternehmen betonte, dass Canvas den Prozess der Umsetzung von Programmierideen in funktionierende Prototypen für Webanwendungen, Python-Skripte, Spiele, Simulationen und andere interaktive Anwendungen vereinfachen wird. Google erklärte außerdem, dass die neue Funktion es Nutzern ermöglicht, sich auf das Erstellen, Bearbeiten und Teilen ihres Codes und Designs an einem zentralen Ort zu konzentrieren, ohne zwischen verschiedenen Anwendungen wechseln zu müssen. Canvas wurde weltweit für Abonnenten von Gemini und Gemini Advanced in allen Sprachen eingeführt.
Google hat außerdem Audio Overview eingeführt, das Dokumente, Präsentationen und sogar Deep-Research-Berichte von Nutzern in ansprechende Diskussionen im Podcast-Stil zwischen zwei KI-Moderatoren verwandelt.

