Google a annoncé le déploiement des fonctionnalités d'IA en temps réel de Gemini, permettant à ce système d'analyser instantanément les écrans de smartphones et les flux vidéo des caméras. Ces fonctionnalités seront accessibles à certains abonnés Google One AI Premium.
Cette nouvelle fonctionnalité fait suite à la première démonstration du « Projet Astra » de Google il y a près d'un an, qui a permis d'intégrer la prise de vue assistée et le partage d'écran à Gemini Live. Google a révélé que cette nouvelle fonctionnalité de vidéo en direct permettrait à Gemini d'interpréter en temps réel le flux vidéo des smartphones des utilisateurs et de répondre à leurs questions.
L'entreprise technologique a publié une vidéo au début du mois démontrant l'utilisation de la fonctionnalité vidéo en direct de Gemini pour choisir une couleur de peinture pour de la poterie fraîchement émaillée.
Google déploie les fonctionnalités vidéo en temps réel de l'IA de Gemini
Cette nouvelle fonctionnalité permettrait également aux utilisateurs d'échanger des messages avec Gemini en temps réel, en se basant sur le flux vidéo de leur écran. Un utilisateur de Reddit a accédé à la fonction « Partager l'écran avec Live » en appuyant sur le bouton situé au-dessus du champ de texte « Poser une question à Gemini » dans l'interface Gemini.

L'utilisateur de Reddit a également publié une vidéo (ci-dessous) démontrant la nouvelle fonctionnalité de lecture d'écran de Gemini. Cette fonctionnalité fait partie des deux autres que l'entreprise technologique a annoncé vouloir déployer progressivement auprès des abonnés Gemini Advanced dans le cadre du forfait Google One AI Premium plus tard ce mois-ci. Pour accéder à la fonctionnalité de caméra en temps réel, il suffit d'ouvrir l'interface complète de Gemini Live et de lancer un flux vidéo.
Google a affirmé que Gemini Live utiliserait un nouveau système de notification similaire à celui des appels téléphoniques et une interface plein écran plus compacte, bien que ces fonctionnalités n'aient pas encore été largement déployées. L'entreprise technologique a également reconnu en janvier que les propriétaires de Pixel (et de la gamme Galaxy S25) seraient « parmi les premiers à bénéficier des fonctionnalités du Projet Astra, telles que le partage d'écran et la diffusion vidéo en direct »
Google déploie les fonctionnalités Canvas et de présentation audio
Nous lançons Canvas et accueillons Audio Overview dans l' application Gemini dès aujourd'hui. Transformez vos documents, présentations et rapports de recherche approfondie en podcasts grâce à Audio Overview. Vous pouvez également créer un document ou un projet de code avec Canvas : il génère des prototypes ultra-rapides et vous permet de les modifier en temps réel avec Gemini. pic.twitter.com/tEdlZoSqeS
– Sundar Pichai (@sundarpichai) 18 mars 2025
Google a également lancé une nouvelle fonctionnalité Gemini le 18 mars, appelée « Canvas », qui permet aux utilisateurs de peaufiner leurs documents et leur code. L'entreprise a indiqué que les utilisateurs pouvaient sélectionner « Canvas » dans la barre d'invite de commandes pour rédiger et modifier des documents ou du code, les modifications s'affichant en temps réel.
L'entreprise technologique a souligné que Canvas simplifiera la transformation des idées de programmation en prototypes fonctionnels pour les applications web, les scripts Python, les jeux, les simulations et autres applications interactives. Google a également indiqué que cette nouvelle fonctionnalité permettra aux utilisateurs de se concentrer sur la création, la modification et le partage de leur code et de leurs conceptions au même endroit, sans avoir à jongler entre plusieurs applications. Canvas a été déployé dans le monde entier pour les abonnés Gemini et Gemini Advanced, et ce, dans toutes les langues.
Google a également introduit Audio Overview, qui transforme les documents, les diapositives et même les rapports de recherche approfondie des utilisateurs en discussions captivantes de type podcast entre deux animateurs IA.

