Googleレンズに新機能、「音声で質問」「動画で見せて検索」
米Googleのビジュアル検索機能「Googleレンズ」において、音声入力による質問や動画による検索を利用できるようになる。
Googleレンズは、ユーザーがスマートフォンのカメラで撮影したものやアップロードした画像をAIが分析し、対象物の特定や情報検索、翻訳など、さまざまな情報を提供する機能である。
音声入力では、スマートフォンのGoogleレンズで調べたい対象にカメラを向け、シャッターボタンを押したまま声で質問する。
たとえば、ツールの使い方を調べる際、これまではGoogleレンズでツールを撮影し、次に[検索に追加]をタップして「使い方」や「説明書」といったキーワードを入力する必要があった。音声入力を使うことでこの2つのステップが1つにまとめられ、より自然で直感的に調べることができる。
音声入力は、AndroidおよびiOSのGoogleアプリで利用できるようになるが、現時点で対応言語は英語のみである。
動画による検索は、5月にGoogle I/O 2024でプレビューされた機能である。AIが動画を分析し、質問に応じた情報を提供する。たとえば、ツールの動作に問題がある原因を知りたい場合、動画を使って実際の動作を示すことで、静止画と言葉による説明よりも正確に動作の問題を伝えることができる。それにより、より適切な回答を得られる可能性が高まる。
動画による検索は、Search Labsで体験できる実験機能として提供される。Search Labsで「AIによる概要など」実験に登録すると、AndroidとiOSのGoogleアプリで利用できるようになる(質問の対応言語は英語のみ)。
使い方は、音声入力と同じである。スマートフォンのGoogleレンズで調べたい対象にカメラを向け、シャッターボタンを押し続けながら音声で質問する。「AIによる概要など」実験に登録している場合、シャッターボタンを押したままにすると、自動的に動画がキャプチャされる。
Googleレンズは、ユーザーがスマートフォンのカメラで撮影したものやアップロードした画像をAIが分析し、対象物の特定や情報検索、翻訳など、さまざまな情報を提供する機能である。
音声入力では、スマートフォンのGoogleレンズで調べたい対象にカメラを向け、シャッターボタンを押したまま声で質問する。
たとえば、ツールの使い方を調べる際、これまではGoogleレンズでツールを撮影し、次に[検索に追加]をタップして「使い方」や「説明書」といったキーワードを入力する必要があった。音声入力を使うことでこの2つのステップが1つにまとめられ、より自然で直感的に調べることができる。
音声入力は、AndroidおよびiOSのGoogleアプリで利用できるようになるが、現時点で対応言語は英語のみである。
動画による検索は、5月にGoogle I/O 2024でプレビューされた機能である。AIが動画を分析し、質問に応じた情報を提供する。たとえば、ツールの動作に問題がある原因を知りたい場合、動画を使って実際の動作を示すことで、静止画と言葉による説明よりも正確に動作の問題を伝えることができる。それにより、より適切な回答を得られる可能性が高まる。
動画による検索は、Search Labsで体験できる実験機能として提供される。Search Labsで「AIによる概要など」実験に登録すると、AndroidとiOSのGoogleアプリで利用できるようになる(質問の対応言語は英語のみ)。
使い方は、音声入力と同じである。スマートフォンのGoogleレンズで調べたい対象にカメラを向け、シャッターボタンを押し続けながら音声で質問する。「AIによる概要など」実験に登録している場合、シャッターボタンを押したままにすると、自動的に動画がキャプチャされる。
10/04 16:37
マイナビニュース