Google、米国で「AI Mode」提供開始 音声会話で検索可能に

米国時間2025年6月18日、米Googleは音声対話型の検索機能「AI Mode(Search Live)」の提供を、米国内のGoogleアプリにて正式に開始したと発表した。
Geminiをベースとした音声応答AIによって、検索のインターフェースが大きく変わる可能性がある。
Googleアプリに音声対話型の「AI検索モード」が登場
Googleは、開発者会議「Google I/O 2025」で発表した音声会話形式の検索機能「Search Live」を、AndroidおよびiOS向けのGoogleアプリに実装した。
検索バー下部に新たに追加された「AI Mode」ボタンをタップすることで利用できる。
「Search Live」では、ユーザーが音声で質問を行うと、AIが即座に音声で回答を返す仕組みとなっている。
たとえば、「麻のドレスをしわにしないパッキング方法は?」といった質問に対して、Geminiを用いたAIが口頭で回答を行い、そのまま関連する追問を自然に続けることができる。
また、画面にはAIの回答の出典リンクが表示され、必要に応じて信頼できる情報源にアクセスできる。
会話の内容はアプリ内にテキストとして保存され、「Transcript(※)」ボタンから確認可能だ。
さらに、この検索機能はバックグラウンドでも動作するため、他のアプリを使用中でも会話を継続できる。
今後数カ月以内には、スマートフォンのカメラを使ってリアルタイムに目の前の物体に関する情報を検索できる機能も追加予定とされており、AIによる情報アクセスの進化が期待される。
※Transcript:音声対話の内容をテキスト形式で保存・表示する機能。会話の振り返りや共有に活用できる。
今後の展望、AIによる検索体験の変化と課題
「Search Live」の導入によって、ユーザーの検索体験は大きく変化する可能性がある。
テキスト入力を前提としていた従来の検索スタイルに対し、音声による対話は、より直感的かつ柔軟な情報収集を可能にする。
特に運転中や料理中といった「手が離せない状況」において、音声検索の価値は一段と高まるだろう。
一方で、誤認識による意図しない応答や、AIが示す情報の正確性・透明性も重要な評価軸になると思われる。
Googleは情報源の明示によって信頼性を担保しようとしているが、その運用精度は今後の実利用で検証されていくはずだ。
この新機能は、将来的に日本を含む他国でも展開される可能性がある。
音声による検索体験や、今後予定されているカメラでの検索など、AIによる検索の多様化は着実に進行している。
これが進めば、インターネット体験のベースを担う検索という行動も、AIによって変革されることになるだろう。