O Google anunciou que está lançando os recursos de IA em tempo real da Gemini, o que permitirá que o sistema de IA analise as telas de smartphones e a câmera se alimenta instantaneamente. Esses recursos serão acessíveis para selecionar o Google One AI Premium assinantes.
O novo recurso seguiu a primeira demonstração do "Project Astra" do Google há quase um ano, trazendo recursos de câmera e compartilhamento de tela para o Gemini Live. O Google revelou que o novo recurso de vídeo ao vivo permitiria que Gemini interpretaria o feed das câmeras de smartphone dos usuários em tempo real e respondesse a perguntas.
A empresa de tecnologia lançou um vídeo no início deste mês, demonstrando o uso do recurso de vídeo ao vivo de Gemini para escolher uma cor de tinta para cerâmica recém -vidrada .
O Google lança os recursos de vídeo da AI em tempo real Gemini
O novo recurso também permitiria aos usuários ter uma conversa com Gêmeos com base no feed da tela em tempo real. Um usuário no Reddit acessou a “Share Screen with Live” tocando o botão acima do campo de texto 'Ask Gemini' na sobreposição de Gêmeos.

O usuário do Reddit também postou um vídeo abaixo demonstrando a nova capacidade de leitura de tela da Gemini. Está entre os dois recursos que a empresa de tecnologia disse que "começaria a ser lançados para assinantes avançados de Gemini como parte do Plano Premium AI do Google One AI" ainda este mês. Os recursos da câmera em tempo real podem ser acessados abrindo a interface completa do Gemini Live e iniciando um fluxo de vídeo.
O Google sustentou que o Gemini Live usaria uma nova notificação de estilo telefônico e uma interface mais compacta de tela cheia, embora ainda não tivessem sido amplamente lançados. A empresa de tecnologia também reconheceu em janeiro que os proprietários do Pixel (e da Galaxy S25) estarão "entre os primeiros a obter recursos do Project Astra, como compartilhamento de tela e streaming de vídeo ao vivo".
O Google lança recursos de tela e visão geral de áudio
Estamos introduzindo tela e acolhendo a visão geral do áudio no @geminiapp hoje. Transforme documentos, slides + relatórios de pesquisa profundos em podcasts com visão geral do áudio. Ou crie um documento ou um projeto de codificação com tela-ele gira protótipos super rápido e você pode editar com Gemini em tempo real. pic.twitter.com/tedlzosqes
- Sundar Pichai (@sundarpichai) 18 de março de 2025
O Google também lançou outro novo recurso Gemini em 18 de março chamado "Canvas", que permite que os usuários refinem seus documentos e código. A empresa reconheceu que os usuários poderiam selecionar "Canvas" em sua barra prompt, onde podem escrever e editar documentos ou codificar, com alterações aparecendo em tempo real.
A empresa de tecnologia destacou que a tela otimizará o processo de transformar idéias de codificação em protótipos de trabalho para aplicativos da Web, scripts Python, jogos, simulações e outros aplicativos interativos. O Google também disse que o novo recurso permitirá que os usuários se concentrem na criação, edição e compartilhamento de código e design em um só lugar, sem o incômodo de alternar entre vários aplicativos. A empresa de tecnologia lançou tela para assinantes avançados de Gemini and Gemini em todos os idiomas.
O Google também introduziu uma visão geral do áudio, que transforma os documentos dos usuários, slides e até relatórios de pesquisa profundos sobre o envolvimento de discussões no estilo de podcast entre dois hosts de IA.
Principais diferenças : os projetos de criptografia de ferramenta secreta usam para obter cobertura de mídia garantida