Google ha annunciato il lancio delle funzionalità di intelligenza artificiale in tempo reale di Gemini, che consentiranno al sistema di intelligenza artificiale di analizzare istantaneamente gli schermi degli smartphone e i feed delle fotocamere. Queste funzionalità saranno accessibili solo ad alcuni abbonati selezionati a Google One AI Premium.
La nuova funzionalità segue la prima dimostrazione di Google del "Project Astra" avvenuta quasi un anno fa, che ha introdotto funzionalità avanzate di condivisione dello schermo e della fotocamera in Gemini Live. Google ha rivelato che la nuova funzionalità video in diretta avrebbe permesso a Gemini di interpretare in tempo reale il feed proveniente dalle fotocamere degli smartphone degli utenti e di rispondere alle loro domande.
, l'azienda tecnologica ha pubblicato un video che mostra come utilizzare la funzione video in diretta di Gemini per scegliere il colore della vernice per la ceramica appena smaltata.
Google lancia le funzionalità video AI in tempo reale di Gemini
La nuova funzionalità consentirebbe inoltre agli utenti di conversare con Gemini in tempo reale, basandosi sul feed dello schermo. Un utente su Reddit ha attivato la funzione "Condividi schermo con Live" toccando il pulsante sopra il campo di testo "Chiedi a Gemini" nell'overlay di Gemini.

L'utente di Reddit ha anche pubblicato un video qui sotto che mostra la nuova funzionalità di lettura dello schermo di Gemini. È una delle due funzionalità che l'azienda tecnologica ha dichiarato di voler "iniziare a distribuire agli abbonati Gemini Advanced come parte del piano Google One AI Premium" entro la fine del mese. Le funzionalità della fotocamera in tempo reale sono accessibili aprendo l'interfaccia completa di Gemini Live e avviando uno streaming video.
Google ha sostenuto che Gemini Live avrebbe utilizzato una nuova notifica in stile telefonata e un'interfaccia a schermo intero più compatta, sebbene queste funzionalità non fossero ancora state ampiamente implementate. L'azienda tecnologica ha anche riconosciuto a gennaio che i possessori di Pixel (e della serie Galaxy S25) saranno "tra i primi a ottenere le funzionalità di Project Astra come la condivisione dello schermo e lo streaming video in diretta"
Google lancia le funzionalità Canvas e panoramica audio
presentiamo Canvas e diamo il benvenuto alla Panoramica Audio su @GeminiApp . Trasforma documenti, slide e report di ricerca approfondita in podcast con la Panoramica Audio. Oppure crea un documento o un progetto di programmazione con Canvas: crea prototipi in modo rapidissimo e puoi modificarli con Gemini in tempo reale. pic.twitter.com/tEdlZoSqeS
— Sundar Pichai (@sundarpichai) 18 marzo 2025
Google ha rilasciato un'altra nuova funzionalità di Gemini, chiamata "Canvas", che consente agli utenti di perfezionare documenti e codice. L'azienda ha confermato che gli utenti possono selezionare "Canvas" nella barra dei prompt, dove possono scrivere e modificare documenti o codice, con le modifiche visualizzate in tempo reale.
L'azienda tecnologica ha sottolineato che Canvas semplificherà il processo di trasformazione delle idee di programmazione in prototipi funzionanti per app web, script Python, giochi, simulazioni e altre app interattive. Google ha inoltre affermato che la nuova funzionalità consentirà agli utenti di concentrarsi sulla creazione, modifica e condivisione di codice e design in un unico posto, senza la difficoltà di passare da un'applicazione all'altra. L'azienda tecnologica ha lanciato Canvas per gli abbonati a Gemini e Gemini Advanced a livello globale, in tutte le lingue.
Google ha inoltre introdotto Audio Overview, che trasforma i documenti, le slide e persino i report di Deep Research degli utenti in coinvolgenti discussioni in stile podcast tra due conduttori AI.

