Google、Geminiにリアルタイム視覚認識機能と画面共有機能を追加 3月中の提供開始を予定

Googleは2025年3月3日(現地時間)、バルセロナで開催中のMobile World Congress 2025において、AIアシスタント「Gemini」に、「リアルタイム視覚認識機能」と「画面共有機能」を追加することを発表した。2つの新機能により、ユーザーはスマートフォンのカメラや画面共有を通じて、AIと視覚情報をリアルタイムでやり取りできるようになる。
新機能の詳細と技術的背景
これらの機能は「Gemini Live」プラットフォームを通じて利用可能になるとのことだ。
現時点では、サブスクリプションプラン「Google One AI Premium(※)」の加入者のみが対象だという。
リアルタイム視覚認識機能では、ユーザーがカメラで捉えた映像を即座に分析し、物体認識や状況説明を行うことが可能となる。例えば、ユーザーがカメラを通じて特定の物体を映すと、Geminiがそれを認識し、関連する情報を提供する。
また、画面共有機能では、ユーザーはスマートフォンやPCの画面をGeminiと共有しながら質問を投げかけることができる。さらに、画面共有機能を活用すれば、スプレッドシートの内容を確認しつつ、AIからのアドバイスを受けることも可能だという。
リアルタイム視覚認識機能や画面共有機能は、Googleの先進的なAI技術と機械学習アルゴリズムによって実現されており、視覚情報のリアルタイム処理を可能にしている。
※Google One AI Premium:Googleが提供する有料サブスクリプションプランの一つで、Gemini AIの高度な機能を利用できる特典がある(月額19.99ドル/日本では2,900円)。GoogleドライブやGmailなどのサービスと統合されたAIツールを活用できる。
ユーザー体験の向上と今後の展望
2つの新機能は、ユーザー体験を大きく向上させるだろう。
例えばビジネスシーンにおいては、会議中に資料を共有しながら、AIの分析や提案をリアルタイムで受けることで、意思決定の効率化が見込める。
一方で、デメリットにも考慮する必要がある。
リアルタイム視覚認識機能は、プライバシーやセキュリティの懸念を引き起こすかもしれない。また、技術的な限界や誤認識の可能性も無視できないだろう。AIが誤った情報を提供した場合、ユーザーの判断に悪影響を及ぼす恐れがあると考えられる。
今後、ユーザーからのフィードバックを基に、Geminiはさらなる機能拡張や改善が行われる可能性が高い。リアルタイム視覚認識技術や画面共有機能の進化に伴い、ユーザーのインタラクションがより直感的かつ効率的になることが期待できる。
将来的には、AIがユーザーのニーズをより的確に把握し、個別対応が可能になることで、よりパーソナライズされた体験が提供されるのではないだろうか。
関連記事:グーグルの生成AI「Gemini」も動画生成に対応する可能性
Plus Web3は「Web3領域に特化したキャリア支援サービス」

Plus Web3では、Web3で働きたい人材と、個人に合わせた優良企業をマッチングする求人サービスを行っています。
- Web3で働くことも考えている…
- Web3のインターン先はどこがいいか分からない…
- どんな知識やスキルがあれば良いのか分からない…
このような悩みを抱える人は、一度「無料キャリア相談」にお越しください。あなたにマッチした優良企業をご紹介いたします。