O Google anunciou o lançamento dos recursos de IA em tempo real do Gemini, que permitirão ao sistema de IA analisar instantaneamente telas de smartphones e imagens de câmeras. Esses recursos estarão disponíveis para assinantes selecionados do Google One AI Premium.
O novo recurso surgiu após a primeira demonstração do "Projeto Astra" do Google, há quase um ano, que trouxe recursos de câmera e compartilhamento de tela para o Gemini Live. O Google revelou que o novo recurso de vídeo ao vivo permitirá que o Gemini interprete as imagens das câmeras dos smartphones dos usuários em tempo real e responda a perguntas.
A empresa de tecnologia lançou um vídeo no início deste mês demonstrando o uso do recurso de vídeo ao vivo do Gemini para escolher a cor da tinta para peças de cerâmica recém-esmaltadas.
O Google lança os recursos de vídeo com IA em tempo real do Gemini
O novo recurso também permitiria que os usuários tivessem uma conversa interativa com Gemini com base no conteúdo da tela em tempo real. Um usuário do Reddit acessou a opção "Compartilhar tela com o Live" tocando no botão acima do campo de texto "Pergunte a Gemini" na sobreposição de Gemini.

O usuário do Reddit também publicou um vídeo abaixo demonstrando a nova capacidade de leitura de tela do Gemini. Essa é uma das duas funcionalidades que a empresa de tecnologia afirmou que começaria a disponibilizar para os assinantes do Gemini Advanced como parte do Plano Premium de IA do Google One ainda este mês. Os recursos da câmera em tempo real podem ser acessados abrindo a interface completa do Gemini Live e iniciando uma transmissão de vídeo.
O Google afirmou que o Gemini Live usaria uma nova notificação no estilo de chamada telefônica e uma interface de tela cheia mais compacta, embora essas novidades ainda não tivessem sido amplamente implementadas. A empresa de tecnologia também reconheceu em janeiro que os proprietários de Pixel (e da série Galaxy S25) estariam "entre os primeiros a receber recursos do Project Astra, como compartilhamento de tela e transmissão de vídeo ao vivo"
O Google lança recursos de Canvas e visão geral em áudio
Estamos lançando o Canvas e dando as boas-vindas à Visão Geral em Áudio no @GeminiApp hoje. Transforme documentos, slides e relatórios de Pesquisa Detalhada em podcasts com a Visão Geral em Áudio. Ou crie um documento ou projeto de código com o Canvas – ele gera protótipos super-rápidos e você pode editar com o Gemini em tempo real. pic.twitter.com/tEdlZoSqeS
-Sundar Pichai (@sundarpichai) 18 de março de 2025
O Google também lançou outro novo recurso do Gemini em 18 de março, chamado "Canvas", que permite aos usuários aprimorar seus documentos e códigos. A empresa confirmou que os usuários podem selecionar "Canvas" na barra de ferramentas, onde podem escrever e editar documentos ou códigos, com as alterações aparecendo em tempo real.
A empresa de tecnologia destacou que o Canvas simplificará o processo de transformação de ideias de programação em protótipos funcionais para aplicativos da web, scripts Python, jogos, simulações e outros aplicativos interativos. O Google também afirmou que o novo recurso permitirá que os usuários se concentrem na criação, edição e compartilhamento de seu código e design em um só lugar, sem a necessidade de alternar entre vários aplicativos. A empresa lançou o Canvas para assinantes dos planos Gemini e Gemini Advanced globalmente, em todos os idiomas.
O Google também lançou o Audio Overview, que transforma documentos, slides e até mesmo relatórios do Deep Research em discussões envolventes no estilo podcast entre dois apresentadores de IA.

