日本で人気のPixel、新機能は「英語のみ」のナゼ

Pixel 9シリーズ

新しいPixel 9シリーズ。左からPixel 9、Pixel 9 Pro XL、Pixel 9 Pro。カラーはRose Quartz(筆者撮影)

グーグルのスマートフォン「Pixel」の新機種Pixel 9シリーズが発表になった。

Pixelは世界中で売られている製品だが、ここ数年は特に日本での人気が高い。そのため、発表と同時に多くの国内メディアにPixel 9のニュースがあふれた。

一方で、ちょっと気になる点もある。

9月13日(現地時間)の発表日、筆者はアメリカ・マウンテンビューにあるグーグル本社で発表イベント「Made by Google」を取材していた。その現場で見たのは、日本で報じられる姿とは違う部分が大きかったのだ。

そこには現在起きつつある「スマートフォンのパラダイム・シフト」に関わる事情が関わっている。

どういうことか? 現地取材から考えたことをまとめたい。

Pixel 9はカメラがさらに進化

Pixelに、どのようなイメージを抱いているだろうか?

「消しゴムマジックなどの、AIによる写真・動画処理がすごい」「グーグルが扱う安心感」というところではないかと思う。

写真・動画処理については今回も力が入っている。

特に面白いのは「一緒に写る(Add Me)」と呼ばれる機能だ。記念撮影時に自分が入れない、という場面はよくあるが、この機能では「後からうまくアングルや位置を合わせて撮影して合成する」ことで、後で見ても「自分だけ後で入って合成した」とは思えない写真が出来上がる。

「一緒に写る」のデモビデオ(動画:Google 日本版 公式チャンネル/YouTube)

また、上位モデルにあたる「Pixel 9 Pro」「Pixel 9 Pro XL」については、4Kで撮影した動画を8Kへと解像度アップすることも可能となった。

現地発表会でもそのことは大きくアピールされたのだが、発表会の主軸はそこではなかった。ここは日本で行われた製品アピールとは異なる点だ。

では、現地ではどの部分がアピールされたのか? それは「AIを使ったユーザーインターフェースの変化」だ。

グーグルが狙うスマホのパラダイム・シフト

グーグルでPixelやAndroidの事業を統括する、同社・シニアバイスプレジデントのリック・オステルロー氏は、アメリカで行われた発表後の記者向け説明会で次のように話した。

グーグル・シニアバイスプレジデントのリック・オステルロー氏(筆者撮影)

「私は25年間モバイルデバイス事業に関わっているが、現在はこの中でも大きなパラダイム・シフトの只中にいる」

彼の言うパラダイム・シフトの中核にあるのが、AIがもたらす進化である。

写真機能がより優れたものになるのは大切で魅力的なことだが、パラダイム・シフトというほど大きなことではない。AIでスマホの使い方・接し方が変わることを劇的な変化と呼んでいるのである。

グーグルは現在、全社を挙げて同社の生成AI「Gemini(ジェミニ)」の導入を進めている。キャッチフレーズとして「Gemini Era(Geminiの時代)」と呼ぶほど徹底したものであり、スマホももちろん例外ではない。

Geminiは検索からメールの要約、翻訳などさまざまなシーンで使われる。

今回、特にPixel 9シリーズで使える機能としてアピールされたのが以下の3つの機能だ。

1つ目が「Call Notes」。要は電話の内容をすべて書き起こし、要約し、検索したり再利用できるようにする機能だ。

Pixel 9シリーズに“英語の機能として”搭載される電話音声書き起こし機能「Call Notes」(筆者撮影)

2つ目が「Pixel Screenshots」だ。これはスクリーンショットを撮るとその中の内容や文章、ウェブのアドレスなどが解析され、自動的に整理されるというもの。写真やスクリーンショットを見て、そこに含まれる電話番号やアドレスをタイプする……という作業をする人は多いはずだが、それが不要になる。

実際には「自動的に文字化」するのではなく、スクリーンショットを撮ることで「検索可能な情報にする」と考えたほうがいい。要はスマホの中で起きたことのうち「これは忘れると困る」と思ったらスクショを撮っておくと、AIによって「行動のデータベース」に変わるという考え方だ。

スクリーンショット内の情報をAIが解析、行動のデータベースに変える「Pixel Screenshots」(筆者撮影)

どちらも極めてプライベートな情報を含むので、情報はクラウドに送られることなく、機器の中で動く「オンデバイスAI」で処理される。自分が持つスマホの中で完結するので、内容はグーグルも把握できない。

こうした要素は、スマホなどの中で動作する「Gemini Nano」と、比較的高性能なプロセッサー、容量の大きなメモリーとのセットで実現される。

現在は同社の「Pixel」のほか、サムスンの「Galaxy」やモトローラの「Razr」といったハイエンド端末への組み込みが進んでいる。今後、より広い製品に使われることになっていくだろう。

ラフな言い方でも認識する「Gemini Live」

最後の1つが「Gemini Live(日本ではGemini Liveチャット)」だ。

スマホで人間と自然な対話を実現する「Gemini Live」がスタート(筆者撮影)

スマホで音声を使って操作・検索する機能は、以前より「音声アシスタント」として実装されている。Gemini Liveはその進化版と言えるものだ。グーグルの有料サービス「Google One Advanced」を利用するアメリカの顧客に対し、8月13日からスタートした。

圧倒的に滑らかな対話ができて、反応も素早い。重要なのは、人間が正確に話さなくても、ちゃんと対話が続くことだ。

人間は話す時、意外なほど「ちゃんと話していない」ものだ。だから、これまでの音声技術では、まず「なにを言おうとしているのかを考える」必要があった。途中で言い淀むと命令が伝わらず、エラーになりやすい。

しかし、人間同士の対話では違う。じっくり考えずに、思ったことをラフに話している時間のほうが長い。

Gemini Liveはこれまでの音声アシスタントとは異なり、完璧なフレーズでなくても、ラフな言い方で認識して働く。

こちらはGemini Nanoではなくクラウドとの連携で動作するものだが、本当に実用的な使い方をするなら、スマホを手に持って画面をタップするのではなく、イヤホンなどで話しながらスマホを使うようになるだろう。

これらを組み合わせて使えるようになれば、確かにスマホの使い方は大きく変わる可能性が高い。なるほど「パラダイム・シフト」と言えるかもしれない。

現在、グーグルはAndroidの中核にGeminiを組み込むべく改良を進めている。Pixel 9シリーズだけに搭載されるわけではなく、将来的にはすべてのAndroid採用製品へと広げることを目指している。

まずは「英語でのみ」

これだけの機能が使えるなら、日本でのPixel 9シリーズのお披露目でも大きくアピールされて良さそうなものだ。

だが実際にはそうではなかった。

理由は、ここで挙げた3つの機能が「英語でのみ」の提供となっているからだ。

生成AIは翻訳などで「言語を超える」機能を提供する一方、価値は言語に依存する部分も多い。海外企業のサービスが「英語のみ」「中国語のみ」からスタートする例は少なくない。話す人間・利用する人間が多いほど学習に使う情報も多くなるためだ。

スマホと連携する生成AIについは、グーグルだけでなくアップルも開発を続けている。アップルの「Apple Intelligence」も、秋からのテスト公開は「英語のみ」となっており、ほかの言語については2025年以降とされる。

グーグルは、Gemini Liveなどをいつ英語以外で提供するのか、コメントしていない。

これらの機能提供に時間がかかると、英語圏とそれ以外との差が大きくなる。個人の利用に時間がかかることはまだいい。これからはスマホ内のAIとアプリ・サービスの連携が重要になる。時間がかかるほど、アプリやサービスの開発で出遅れることになり、別の「不利」が生まれる。

スマホとAIを連携させられる企業は限られている。アップルやグーグルは「スマホ上のAIサービス」を構築する多様な要素を抱えており、今後さらに有利な立場になっていくだろう。

グーグルはAIサービスからスマホ用プロセッサーまで、多層的な技術でGeminiを構成している(筆者撮影)

そのことがわかっているから、グーグルは「自社以外のAndroid機器」にもAIを広げようとしているのだ。そのほうがビジネスに有利であると同時に、広げることで独占的な立場との指摘を脱しやすくなる。

AIプラットフォーマーは英語以外への言語への対応を加速するだろう。日本語が不利な時期は意外と短いかもしれない。ただ、そのためには「日本が魅力的な市場である」ことが必須だ。

また、高性能なスマホを安価に広げるための仕組みや、買い替えを促進する仕組みも重要になってくるだろう。

(西田 宗千佳 : フリージャーナリスト)

ジャンルで探す