見ているものを教えてくれるよ。カメラ付きAIイヤホン

2024-10-15jvc

Photo: 小暮ひさのり

「これは蓄音機を聞いている犬が描かれています」

最近『ググる』などの検索変わって『AIに聞く』もスタンダードになりつつあります。特に昨今のAIは、画像認識での解析も実用的。

でも、今ってスマホを取り出して、カメラを起動して、写真や動画を撮って、AIに渡す。というフローが必要で…。

まぁ、これだけの手順で、他人(AIですけど)に判断してもらえるのはスゴイと思うんですが、この手順を究極シンプルにしてくれそうなアイテムが、JVCケンウッドが開発しているカメラ内蔵のTWSイヤホン

2024-10-15jvc01

Photo: 小暮ひさのり

イヤホンの先端部に内視鏡などで使われる極小のカメラを内蔵することで、自分の向いている方向の映像を、スムーズにAIに渡すことができるんです。さらに耳元からその結果を音声で知ることができるというアプローチですね。

スマホを取り出す必要なしってのがまずステキですし、これがまた実用的そうなんですよね。

2024-10-15jvc03

Photo: 小暮ひさのり

デモでは、おなじみのビクターマーク(ニッパーくん)の画像を見せて、自分は何を見ているのか? を判断してくれました

AIによる解析はイヤホン内やスマホで内でのエッジ処理ではなく、スマホからクラウドへ渡しての処理とのことですが、現時点でもレスポンスは早くてかなり便利そうな印象。

冒頭のセリフのように「蓄音機を聞いている犬」なだけではなく、このビクターマークが生まれた背景まで語ってくれていたので、「なに?」という物体認識のその先にある、「何であるか?」「どういう意味なのか?」まで教えてくれるってAIのよいところですよねー。

2024-10-15jvc04

Photo: 小暮ひさのり

なお、現在想定されている利用シーンは…

・ランニングなどのスポーツシーン…路面状況や障害を検知して注意喚起

・移動中などのワークシーン…アナウンスを読み取り乗換案内など

・日々の買い物シーン…特売シールを読み取って、特売品を組み合わせた献立の提案

・日常のカジュアルシーン…思いついたことを言葉でメモ

・多言語コミュニケーション…同時通訳や身振りの読み取りでの会話など

とのこと。

身振り手振りを含めてのコミュニケーションが便利になるし、もしかしたら手話の通訳などにも使えるかもしれませんし、見知らぬ土地での迷子も防げるかもしれません。

これ、めちゃくちゃ実用的デバイスなのでは?

こちら、本日から幕張メッセで開催されているCEATEC 2024で展示中です。

Source: CEATEC 2024

ジャンルで探す