Google anunció que está implementando las capacidades de IA en tiempo real de Gemini, lo que permitirá al sistema de IA analizar las pantallas de teléfonos inteligentes y las alimentos de la cámara al instante. Estarán accesibles estas características para seleccionar suscriptores de Google One Ai Premium.
La nueva característica siguió a la primera demostración del "Proyecto Astra" de Google hace casi un año, trayendo capacidades de cámara y intercambio de pantalla a Gemini Live. Google reveló que la nueva función de video en vivo permitiría a Gemini interpretar el feed de las cámaras de teléfonos inteligentes de los usuarios en tiempo real y responder preguntas.
La compañía de tecnología lanzó un video a principios de este mes que demostró el uso de la función de video en vivo de Gemini para elegir un color de pintura para la cerámica recién glaseada.
Google lanza las características de video de IA en tiempo real de Gemini
La nueva función también permitiría a los usuarios tener una conversación de ida y vuelta con Gemini basada en la alimentación de la pantalla en tiempo real. Un usuario en Reddit accedió a la "pantalla Compartir con Live" tocando el botón sobre el campo de texto 'Ask Gemini' en la superposición de Gemini.

El usuario de Reddit también publicó un video a continuación que demuestra la nueva capacidad de lectura de pantalla de Gemini. Se encuentra entre las dos características que la compañía de tecnología dijo que "comenzaría a implementarse con los suscriptores avanzados de Gemini como parte del plan premium de Google One AI" a finales de este mes. Se puede acceder a las capacidades de cámara en tiempo real abriendo la interfaz Live Gemini completa e iniciando una transmisión de video.
Google sostuvo que Gemini Live usaría una nueva notificación de llamadas de llamadas de teléfono y una interfaz de pantalla completa más compacta, aunque aún no se habían implementado ampliamente. La firma tecnológica también reconoció en enero que los propietarios de Pixel (y la serie Galaxy S25) estarán "entre las primeras en obtener capacidades Astra Project como compartir pantalla y transmisión de video en vivo".
Google lanza lienzos y funciones de descripción general de audio
Presentamos lienzo y acogemos bien la descripción de audio al @Geminiapp Today. Gire los documentos, diapositivas + informes de investigación profundos en podcasts con descripción general de audio. O cree un documento o proyecto de codificación con lienzo: gira los prototipos súper rápido y puede editar con Gemini en tiempo real. pic.twitter.com/tilzosqes
- Sundar Pichai (@sundarpichai) 18 de marzo de 2025
Google también lanzó otra nueva función de Gemini el 18 de marzo llamada "Canvas", que permite a los usuarios refinar sus documentos y código. La firma reconoció que los usuarios podrían seleccionar "lienzo" en su barra rápida, donde pueden escribir y editar documentos o código, con cambios que aparecen en tiempo real.
La compañía de tecnología destacó que Canvas optimizará el proceso de transformación de ideas de codificación en prototipos de trabajo para aplicaciones web, scripts de python, juegos, simulaciones y otras aplicaciones interactivas. Google también dijo que la nueva característica permitirá a los usuarios centrarse en crear, editar y compartir su código y diseño en un lugar sin la molestia de cambiar entre múltiples aplicaciones. La compañía de tecnología implementó el lienzo para los suscriptores avanzados de Gemini y Gemini a nivel mundial en todos los idiomas.
Google también introdujo una descripción general de audio, que transforma los documentos de los usuarios, las diapositivas e incluso los informes de investigación profundos en las interesantes discusiones al estilo de podcast entre dos hosts de IA.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora