Googleは、AI機能をGemini Liveに追加し、一部のGoogle One AI Premium加入者がリアルタイムで画面やスマートフォンのカメラ映像をインタラクティブに使用できるようにした。この新機能は、Googleの広報担当者アレックス・ジョセフによってThe Vergeに確認されたもので、これは約1年前に実演された「Project Astra」に基づいている。Geminiは、利用者が質問をすると、リアルタイムでそれに応じて回答することが可能だ。
あるRedditユーザーは、自身のXiaomiスマートフォンでこの機能が使えることを報告しており、9to5Googleによっても確認されている。また、同じユーザーは、自身がGeminiの新しいスクリーンリーディング能力をデモする短い動画も公開した。この機能は、3月初めにGoogleが発表したGemini Advanced Subscribers向けの特典の一部としてロールアウトすることが告知されていた2つの機能の一つである。
もう一つの機能として、リアルタイム動画解釈機能も追加されており、スマートフォンのカメラ映像を解釈し、その映像に関する質問に対しても回答ができる。Googleが今月公開したデモ動画には、陶器を新しく美しく仕上げるために使うペンキの色についてGeminiにアドバイスを求める様子が映されている。
こうした機能の展開は、GoogleがAIアシスタント競争でリードを続けている重要な例となる。アマゾンはAlexa Plusの限定早期アクセスを準備しており、AppleはSiriのアップグレードを遅延させている。これらの機能は、現在Geminiが利用可能にしている機能に類似している。一方で、SamsungはBixbyを提供しているが、Geminiは同社のスマートフォンでもデフォルトのアシスタントとして機能する。Googleの新たなAI機能は、今後のAI市場において大きな影響を与える可能性を秘めている。これからも、各社のAIアシスタントの進化が注目される。