iPhoneの「カメラ」が17年間も進化を続ける背景
2007年にスティーブ・ジョブズ氏は初代iPhoneを「マルチタッチiPod、革命的携帯電話、インターネットコミュニケーター」と紹介したが、「革命的カメラ」とは紹介しなかった。
しかし、たった200万画素とはいえ、初代からカメラが装備されていたのは非常に重要な点だったといえる。それから17年。今や多くの人はスマホで“しか”写真を撮らなくなった。
最新版であるiPhone 16シリーズの発表を前に、iPhoneカメラ17年の歴史を振り返ってみたい。
初期のiPhoneの画質は普通
2007年にアメリカで発売された初代iPhoneと、日本でも発売された第2世代にあたるiPhone 3Gに搭載されたカメラの画素数は200万画素。解像度は1600×1200ピクセルで、パンフォーカス(レンズは可動せず、全体にゆるくピントが合う方式)だった。
解像度は低いし、ピントもイマイチだが色のバランスは良く、階調が優れている点はアップルらしいチューニングと感じる。後に続くiPhoneの写真のバランスのよさが、この時点から見受けられる。
まだ弱点は多く、中でも課題だったのが暗所撮影だった。日が暮れた屋外で、カメラは使い物にならなかった。
当時は今ほど頻繁にスマホで写真を撮ることはなく、筆者のiPhone 3Gでも撮った写真はそれほど多くなかった。別途、コンデジを持ち歩いてたこともあるだろう。
しかし、iPhoneが販売されると同時期にTwitter(現X)などのSNSが勃興し、写真を投稿する機会が増え、より高い画質が求められるようになった。
第3世代にあたるiPhone 3GSでは、カメラは300万画素にグレードアップされ、オートフォーカスも搭載されたものの、暗所撮影は苦手なままだった。
iPhoneのカメラの性能がグッと上がったのは、iPhone 4からだ。
このころはSNSにスマホから写真を投稿するのがブームになっており、アップルもカメラ性能に力を入れた。iPhone 4のカメラは500万画素になり、オートフォーカスの性能も向上した。
iPhone 4が発売された2010年にInstagramが始まり(当初は正方形の写真しか投稿できなかった)、画像加工アプリもたくさん登場した。セルフィー用のインカメラが付いたのはiPhone 4から。自撮り文化はInstagramと同時期に起こったことになる。
暗所撮影にも強くなり、SNSにアップするために食べ物の写真を撮る人が増えたのもこのころだ。ただ、暗い店内で撮影するにはまだまだ性能は足らず、美味しそうな写真に加工するアプリなどが登場した。
処理能力が増大するスペックインフレ時代
2011年に登場したiPhone 4sは、ガラケー時代が長かった日本において、ようやく一般の人も手にするようになったモデルだ。さらにカメラ性能が向上し、画素数は800万画素に。毎年、処理能力もストレージサイズも急速に増大していたスペックインフレ時代だ(iPhone 4s発表の翌日、スティーブ・ジョブズ氏が死去した)。
iPhone 5~6sまでは、カメラの画素数は800万画素だが、年々画質は向上し、暗所撮影も強化されていく。
2015年登場のiPhone 6sで、ついにカメラの画素数は1200万画素になった。以来、基本的にはiPhone写真のカメラ画素数は1200万画素で保存される。
iPhone 14 Pro Max以降はメインカメラに4800万画素のセンサーを搭載する。ただし、そのセンサーは暗所性能に用いるもので、初期設定で保存される画像は1200万画素となっている。Android端末はより高い画素数を売りにしたモデルもあるが、アップルは、一般的な用途では1200万画素あれば十分だと考えているのだろう。
iPhoneの進化は画質だけじゃない
iPhone 7の大型版、iPhone 7 Plusには、標準の28mm相当F1.8のレンズに加え、望遠の56mm相当F2.2のレンズが搭載された。2つのレンズは選択式ではなく、iPhoneのディスプレイ上でピンチアウトすると、適切な画角で自動的に切り替わるという、今に続く操作方法を実現していた。
ここまで画質を中心に追ってきたが、世代を追うごとに、さまざまな撮影機能が追加されたことも見逃してはならない。動画が撮れるようになったのはiPhone 3GSから、インカメラが設けられたのは前述の通りiPhone 4からだが、それだけではない。
iPhone 5からパノラマ撮影、iPhone 5sからはバーストモード(連写機能)を追加。iPhone 6からは長時間撮影を短く見せるタイムラプスや、スローモーション、iPhone 6sから写真の前後3秒を記録するLive Photos、そして最大30fpsの4K動画、光学手ブレ補正も搭載。iPhone 7 Plusからは望遠レンズの切り替え機能、ポートレートモードなどが追加されている。
iPhone 13では映画のようなシーンが撮れるシネマティックモードが追加されるなど、新しい撮影体験は最も力を入れてアピールされてきた。
“Pro”という名称が使われるようになり、広角レンズが追加されて3眼レンズを搭載したのはiPhone 11 Proからで、iPhone 12 ProではさらにLiDARという深度情報を獲得できるセンサーを搭載。ポートレートモードの性能が大きく向上した。現行モデルに至るまで、Proモデルで3眼のカメラの横にある黒い丸がLiDARセンサーである。
アップルは写真業界、映像業界、出版業界などと関わりが深いため、写真の仕上がりはクセの少ないニュートラルなものであることを重視し続けた。
彩度やコントラストを強くすると彩度が飽和したり、白飛びしたり、黒ツブレしたりした画像となり、後から加工が難しい。
しかし、iPhone Xの時代(2017年)から勢いを増してきたAndroidスマホは、彩度の鮮やかさと強めのコントラストで、いわゆる“映え”を意識した画質チューニングで人気が出始めた。ソフトウェアによる画像処理で、美顔モードなどを備え、目はパッチリ、肌はスベスベといった具合に“盛れる”のがSNS世代の需要と合致した。
アップルは、かたくなにその流れに乗らなかったが、iPhone 12 Proからソフトウェアによる画像処理自体は行うようになった。今日では当たり前のようにAIが処理している調整だ。
iPhone 12から“映え”に大きく舵を切った
iPhone Xから搭載し、徐々に進化してきたNeural Engineを用いることで、瞬時に高度な画像処理が可能になった影響も大きい。遠方の風景は解像感を高く、空は青く抜けがよく、人肌はナチュラルにと、『何が写っているか?』をiPhoneが理解するようになったのだ。
また、iPhone 12 ProからはApple ProRAWに対応し、iPhone単体で無加工の(しかしデータサイズは非常に大きい)画像の撮影が可能になっている。
精密な加工を施して作品として仕上げたいプロユースの場合はApple ProRAWで撮影できるようになったことで、通常の撮影時はNeural Engineで大きく加工して一般受けするような派手な画像に仕上げてもよいという方針になったのかもしれない。
いずれにせよiPhone 12 ProからiPhoneの画像は“映え”方向に大きく舵を切ったといえる。
近年になってもiPhoneのカメラの進化は止まらない。
まず、iPhone 14 Pro以降では、標準画角のカメラのセンサーが大型化され、4800万画素での撮影が可能となった。
この4800万画素のセンサーをそのまま4800万画素で使うのはApple ProRAW撮影のときだけで、通常撮影時には4倍ある撮像素子を感度や解像感を高めるために使う『ピクセルビニング』という処理に使ってる。このため、標準カメラで撮った画像は、iPhone 6sと変わらぬ1200万画素だが、写りは比較にならないほど美しくなった。
iPhone 11 Pro、12 Proでは3眼の設定が0.5倍、等倍、2倍だったのが、iPhone 13 Proでは0.5倍、等倍、3倍となり、さらにiPhone 14 Proでは、大型化されたメインセンサーの中央をクロップして2倍として使うことにより、3眼カメラで、0.5倍、等倍、2倍、3倍と4種類の画角を実現している。iPhone 15 Pro Maxでは、望遠側のレンズを5倍として、0.5倍、等倍、2倍、5倍としている。
進化しても“自然な写り”を残している
ここ数年のiPhoneの写真性能の向上にはNeural Engineによる調整が大きく影響している。“物理的に写るもの”より“人が見たいと思ってるもの”を写すようになりつつも、Androidとは違うiPhoneらしい“自然な写り”を残している。完全にナチュラルな画像が必要な人は、Apple ProRAWで撮影すればいい。
日本時間9月10日午前2時からのスペシャルイベントでiPhone 16シリーズが発表される見込みだ。2007年の初代発売から17年間たゆまず進化してきたiPhoneのカメラが、強力なAIを伴いどのような進化を見せるのか。
(村上 タクタ : 編集者・ライター)
09/05 12:00
東洋経済オンライン