アップルがAI競争に参戦する「とっておきの武器」

アップルインテリジェンスに関するトークセッションで、挨拶に立つティム・クックCEO(中央)と、機械学習・AI担当シニアバイスプレジデントのジョン・ジャナンドレア(右から2番目)、ソフトウェアエンジニアリング担当シニアバイスプレジデントのクレイグ・フェデリギ(右)。司会は著名YouTuberのiJustine(左奥)が担当した。(筆者撮影)

AIに対する遅れについて、投資家からのプレッシャーも強まる中、アップルが出した答えは「Apple Intelligence」(アップル・インテリジェンス)だった。

アップルは6月10日(現地時間)、年次開発者イベント「WWDC24」を開催した。今回もオンライン配信の形式で基調講演や各種技術セッションが行われたが、一部の開発者と記者はアメリカ・カリフォルニア州クパティーノにある本社に招かれた。

株価に注目すると、6月に入ってAI銘柄筆頭とも言えるエヌビディアが、アップルの時価総額を追い越した。それだけに、最大の焦点は「アップルがAI競争において、どのような答えを出すか?」だった。

アップルインテリジェンスとは?

アップルでソフトウェアエンジニアリング担当シニアバイスプレジデントのクレイグ・フェデリギは、アップル・イテリジェンスについて語るセッションで、次のように述べた。

「本当に役に立つインテリジェンスとは何か? ユーザーを中心に考えてみると、AIの役割はユーザーを置き換えることではなく、力強く、賢くあることです」

「また、より個人的な文脈に近いものである必要があります。すなわち、あなた自身が持つ知識を用いて実現するものです。そこには多くの責任が伴います」

アップルは、1時間30分にも及ぶWWDC24の基調講演の半分の時間を割いて、新しいAIについて、その仕組みや動作イメージなどについて解説した。正直なところ、チャット画面に何かを入力すると答えてくれる、と言うほど単純明快なものではなかった。

アップルインテリジェンスは、個別のアプリというよりは、iPhoneやiPad、Macといった製品のシステムを通じて、呼び出して利用することができるAIサービス環境だ。

言語モデル、画像モデルに加えて、アプリを通じて行われるさまざまな行動モデル、個人的な文脈を詳細に理解するモデルを備えており、これらの自分の情報を、プライバシーに配慮しながら、AI活用することができる点を差別化要因としている。

基調講演で発表されたアップルインテリジェンスには、言語モデル、画像モデル、行動モデル、そして個人的文脈モデルが組み込まれてスタートする(筆者撮影)

基本的なAI処理はデバイスの上で実行し、データを端末の外に持ち出さず、生成AIを扱うことができる。この処理には、生成AIで定番ツールだけでなく、自分の予定や場所、状況などを反映した処理を実現できる。

さらに複雑な処理を行うためには、「Private Cloud Compute」(プライベートクラウドコンピュート)と言われる仕組みも用意した。

個人の情報を公に記録されない形でクラウドで処理し、デバイスで利用することができるようになる。この点も、データを預けなければならない他社製のAIとの、アップル流の違いを強調した。

画像の生成にも力を入れる。自分のオリジナル絵文字を生成する「Genmoji」は、ユーザーのリクエストに応えるAI活用だ。

またワープロやプレゼンソフト、メモアプリでは、ラフなスケッチから画像を生成するImage Playground(イメージ・プレイグラウンド)は、プロンプトと呼ばれる、画像生成に必要なテクニックに対して、わかりやすい操作方法を提供している。

例えば「どんな使い方」ができる?

アップルインテリジェンスのプレゼンテーションでは、いくつかのユースケースが示されていたが、それらを参考に、どんなことができるのかを考えてみた。

例えば、海外から帰ってくる家族から「迎えに来られる? どうやって空港まで来る?」とメールで聞かれたとする。

アップルインテリジェンスは、このメールの中身を分析し、迎えに行けるかどうか、空港までの移動方法の選択肢を選ぶだけで返信メールが作成できるスマートリプライが実現できる。

Siriに「家族は何時に空港に着くの?」と聞くと、過去のメールから家族が乗り込む飛行機の便名を確認し、その飛行機のリアルタイムデータを参照し、答えてくれる。続けて、「何時に家を出ればいいの?」と尋ねると、その文脈を引き継いで経路検索をし、出発時刻を教えてくれる。

また写真アプリで、「京都で白いシャツを着ていたときのビデオ」と調べると、その通りの動画が出てくる。

これらは非常にさりげないことのように思えるのだが、実際どうなのだろうか。

プライバシー問題が重要な理由

この時点で、既存の(フェデリギの言葉では「古典的な」)チャットでの生成AI利用では、非現実的かもしれない。その理由が、アップルがことあるごとに強調し、今回のアップルインテリジェンスでも重要な差別化要因として採用している「プライバシー」問題にある。

先の例を考えてみると、まず準備として、チャットに自分のメールの山を読み込ませる必要がある。また、そもそもの話として、「誰が家族なのか?」を知らせる必要もあるだろうし、自分の今日の予定や、住んでいる住所もまた、AIに伝える必要がある。

iPadOS 18の「メモ」はAIで大幅に強化される。スケッチから画像を生成する「Magic Wand」や、手書き文字を学習して貼り付けた活字を手書きで表現する「Smart Script」、手書きの筆算や数式を自動計算してくれる「Math Notes」、録音の文字起こしと要約などが利用可能になる(筆者撮影)

ここで、プライバシーの問題が出てくる。メールの内容や家族関係など、非常に個人的な情報や文脈を、既存の生成AIに教え込むことが、安全ではないからだ。あるいは、写真やビデオを含む膨大なデータ量を全てクラウドに送り込み、分析してもらわなければ、それらの結果を得ることができなくなってしまう。

アップルは、こうした情報を利用可能な形にする作業(インデキシング)を、デバイス内に完結して処理する。そのための機械学習処理を行うためのパワフルなチップを、2020年以降搭載し続けてきた。

そのうえで、デバイス内で答えが出せる内容はデバイス内で、より高度な生成が必要な場合は、デバイスが関連するわずかな情報のみ選び、これを記録されないことを保証するアップルのプライベートクラウドコンピュートのサーバに送り、機械学習処理の結果を返してくる、という手法を採る。

これによって、プライバシーに配慮することと、個人のプライバシーに関わる広範な情報を扱うことを両立させようとしている。

アップルインテリジェンスで実現しようとしているのは人間の知能の再現と言える。個人的な文脈はあらかじめ理解していて、それを基に情報を調べたり、行動を取る。人間を超える言語や情報の処理能力によって、使いこなせるようになる習熟を避けつつ、「人間の手間を減らす」ことを実現するのだ。

アップルインテリジェンスを扱うハードル

クレイグ・フェデリギとともにアップルインテリジェンスのトークセッションに登場した、機械学習とAIを担当するシニアバイスプレジデント、ジョン・ジャナンドレアは、アップルインテリジェンスが、長年のアップルの取り組みの上に成り立っている点を強調した。

「Appleのミッションは、それが私たちの生活の中でどのように意味を持つことができるか。いかに直感的にし、人々に利用可能にするか、でした。生成コンピューティングについても、まったく同じように見ています。

実は、あなたのiPhoneには、今日のアップルインテリジェンス発表の前から、約200ものAIモデルが備わっていました。

例えば、写真の意味や動画の内容を理解し、アプリ内のアクションを検索可能にし、メッセージやメールなどのあらゆることをインデックス化してきました。これらがアップルインテリジェンスで利用可能になったのです。あなたが言っている内容を理解するために、何年もかけて構築されてきたストーリーなのです」(ジョン・ジャナンドレア)

その一方で、アップルインテリジェンスを扱うためには、いくつかのハードルがある。デバイスの性能と言語だ。

アップルインテリジェンスには、画像生成や文字起こし、テキスト編集、絵文字生成など、特定のアプリによらない広範な利用が可能なAI機能を提供する。また、テキストや画像については、ChatGPTと連携することもできるようになる(筆者撮影)

iPhoneでは、2023年に発売されたiPhone 15 Pro、iPhone 15 Pro Max(それぞれA17 Proチップ搭載)が必要になる。またiPadとMacでは、2020年に登場したM1チップ以降を搭載していることが求められる。それぞれ、対応する以前のデバイスでは、アップルインテリジェンスが利用できない。

さらに、秋以降にベータ版が提供されるアップルインテリジェンスは、当初は英語のみでの利用となる。日本語を含む多言語対応は、2025年以降にずれ込むことになり、日本のユーザーが日本語でアップルインテリジェンスを体験するのは、しばらく後の話となる。

(松村 太郎 : ジャーナリスト)

ジャンルで探す