Googleは米国において、「Search Live」という革新的な機能を正式に発表しました。この新機能は、ユーザーが音声とスマートフォンのカメラを通じて、リアルタイムで検索結果と対話できるもので、Google検索をよりダイナミックで状況に応じた会話を可能にします。この機能は、AndroidおよびiOSデバイスのGoogleアプリを通じて利用可能です。
「Search Live」は、AIモードの一部として提供され、Geminiによって強化されています。ユーザーは、音声で質問を投げかけ、AIとの会話を通じて動的な回答を得ることができます。さらに、カメラを有効にすることで、ユーザーの周囲の状況を視覚的に共有し、それに基づいた双方向の会話を展開することが可能です。既存のGoogleレンズユーザーにとっては、画面下部の「Live」を選択するだけで、カメラ共有が自動的に有効になり、シームレスな体験が提供されます。
この機能の登場は、情報との関わり方を大きく変えるものであり、音声とカメラ入力を統合することで、検索がより直感的で文脈に沿ったものになります。例えば、旅行中に周辺の状況について質問したり、電子機器のトラブルシューティングを行ったり、学習活動をサポートしたりする際に、その利便性を発揮します。Googleによれば、この機能は、ユーザーが直面している状況を理解し、必要な情報を提供することに特化しています。
「Search Live」は、GoogleのAIへの取り組みにおける重要な一歩を示しており、従来のテキストベースの検索から、より自然でインタラクティブな対話型検索への移行を加速させるものです。この技術は、ユーザーが情報を探求する方法に新たな次元をもたらし、日常生活の様々な場面で役立つことが期待されています。現時点では米国での提供に限定されていますが、将来的には国際的な展開も予想されます。AIの進化は続いており、その精度には注意が必要ですが、「Search Live」は、情報へのアクセス方法を再定義する可能性を秘めています。