Googleは、GeminiのリアルタイムAI機能を展開すると発表しました。これにより、AIシステムはスマートフォンの画面やカメラ映像を瞬時に分析できるようになります。これらの機能は、一部のGoogle One AIプレミアム加入者が利用できます。.
この新機能は、約1年前にGoogleが初めて行った「Project Astra」のデモンストレーションに続くもので、Gemini Liveにカメラと画面共有機能が追加されました。Googleは、この新しいライブビデオ機能により、Geminiがユーザーのスマートフォンカメラからの映像をリアルタイムで解釈し、質問に答えることができると発表しました。.
このテクノロジー企業は 動画 今月初め、Geminiのライブビデオ機能を使って、釉薬をかけたばかりの陶器に塗る塗料の色を選ぶ様子を実演する 。
GoogleがGeminiのリアルタイムAIビデオ機能を発表
この新機能により、ユーザーは画面のフィードに基づいてGeminiとリアルタイムで双方向の会話を行うことができるようになる。Reddit ある ユーザーは 、Geminiオーバーレイ上の「Geminiに質問」テキストフィールドの上にあるボタンをタップして、「Liveと画面を共有」にアクセスした。

Redditユーザーは、 投稿した Geminiの新しいスクリーンリーダー機能を実演する動画も 2つの機能の 同社が と発表した 今月後半に「Google One AI Premiumプランの一環として、Geminiアドバンスト加入者向けに展開を開始する」 リアルタイムカメラ機能は、Gemini Liveのフルインターフェースを開いてビデオストリームを開始することで利用できる。
Googleは、Gemini Liveは新しい通話スタイルの通知とよりコンパクトなフルスクリーンインターフェースを採用すると主張していたが、まだ広く展開されていない。同社は1月に、Pixel(およびGalaxy S25シリーズ)の所有者が「画面共有やライブ動画ストリーミングといったProject Astraの機能をいち早く利用できる」と認めていた。
GoogleがCanvasと音声概要機能を導入
に Canvas を導入し、Audio Overview を歓迎します @GeminiApp 。Audio Overview を使えば、ドキュメント、スライド、Deep Research レポートをポッドキャストに変換できます。また、Canvas でドキュメントやコーディング プロジェクトを作成すれば、プロトタイプを非常に高速に作成でき、Gemini でリアルタイムに編集できます。pic.twitter.com/ tEdlZoSqeS
— サンダー・ピチャイ (@sundarpichai) 2025 年 3 月 18 日
Googleは リリースした 。これは、ユーザーがドキュメントやコードを洗練させることができる機能だ。同社は、ユーザーがプロンプトバーで「Canvas」を選択すれば、ドキュメントやコードの作成・編集が可能になり、変更内容がリアルタイムで反映されることを認めた。
Googleは、Canvasによってコーディングのアイデアをウェブアプリ、Pythonスクリプト、ゲーム、シミュレーション、その他のインタラクティブアプリのプロトタイプへと変換するプロセスが効率化されると強調しました。また、この新機能により、ユーザーは複数のアプリケーションを切り替える手間をかけずに、コードとデザインの作成、編集、共有に一元的に取り組むことができると述べました。Googleは、GeminiおよびGemini Advancedの加入者向けに、Canvasを全世界で全言語で展開しました。.
Google は、ユーザーのドキュメント、スライド、さらには Deep Research レポートを 2 人の AI ホストによる魅力的なポッドキャスト形式のディスカッションに変換する Audio Overview も導入しました。.

