iPhoneの「カメラ」が17年間も進化を続ける背景

iPhone 3G(右)から、iPhone 15 Proへ。17年間の写真の進化を見てみよう(筆者撮影)

2007年にスティーブ・ジョブズ氏は初代iPhoneを「マルチタッチiPod、革命的携帯電話、インターネットコミュニケーター」と紹介したが、「革命的カメラ」とは紹介しなかった。

しかし、たった200万画素とはいえ、初代からカメラが装備されていたのは非常に重要な点だったといえる。それから17年。今や多くの人はスマホで“しか”写真を撮らなくなった。

最新版であるiPhone 16シリーズの発表を前に、iPhoneカメラ17年の歴史を振り返ってみたい。

筆者手元の初代iPhone(アメリカでのみ販売)で写真を撮ってみたが、写真を取り出す手段が筆者の環境にはもうなかった(筆者撮影)

初期のiPhoneの画質は普通

2007年にアメリカで発売された初代iPhoneと、日本でも発売された第2世代にあたるiPhone 3Gに搭載されたカメラの画素数は200万画素。解像度は1600×1200ピクセルで、パンフォーカス(レンズは可動せず、全体にゆるくピントが合う方式)だった。

【写真】画質や仕上がりはどれくらい違うのか?iPhone 3GからiPhone 15 Proまで。歴代iPhoneで撮った写真を順番に見ていく

iPhone 3Gの発売日(2008年)、表参道のソフトバンクで購入した際に撮った写真。数万枚におよぶ筆者のiPhone写真の記念すべき最初の1枚だ(筆者撮影)

解像度は低いし、ピントもイマイチだが色のバランスは良く、階調が優れている点はアップルらしいチューニングと感じる。後に続くiPhoneの写真のバランスのよさが、この時点から見受けられる。

まだ弱点は多く、中でも課題だったのが暗所撮影だった。日が暮れた屋外で、カメラは使い物にならなかった。

当時は今ほど頻繁にスマホで写真を撮ることはなく、筆者のiPhone 3Gでも撮った写真はそれほど多くなかった。別途、コンデジを持ち歩いてたこともあるだろう。

初期のiPhoneの小さいセンサーとレンズでは、これが限界だった(筆者撮影)

しかし、iPhoneが販売されると同時期にTwitter(現X)などのSNSが勃興し、写真を投稿する機会が増え、より高い画質が求められるようになった。

第3世代にあたるiPhone 3GSでは、カメラは300万画素にグレードアップされ、オートフォーカスも搭載されたものの、暗所撮影は苦手なままだった。

300万画素になったiPhone 3GSで撮った写真(筆者撮影)

iPhoneのカメラの性能がグッと上がったのは、iPhone 4からだ。

このころはSNSにスマホから写真を投稿するのがブームになっており、アップルもカメラ性能に力を入れた。iPhone 4のカメラは500万画素になり、オートフォーカスの性能も向上した。

iPhone 4で撮影した東京スカイツリーはまだ建設中だった(筆者撮影)

iPhone 4が発売された2010年にInstagramが始まり(当初は正方形の写真しか投稿できなかった)、画像加工アプリもたくさん登場した。セルフィー用のインカメラが付いたのはiPhone 4から。自撮り文化はInstagramと同時期に起こったことになる。

暗所撮影にも強くなり、SNSにアップするために食べ物の写真を撮る人が増えたのもこのころだ。ただ、暗い店内で撮影するにはまだまだ性能は足らず、美味しそうな写真に加工するアプリなどが登場した。

処理能力が増大するスペックインフレ時代

2011年に登場したiPhone 4sは、ガラケー時代が長かった日本において、ようやく一般の人も手にするようになったモデルだ。さらにカメラ性能が向上し、画素数は800万画素に。毎年、処理能力もストレージサイズも急速に増大していたスペックインフレ時代だ(iPhone 4s発表の翌日、スティーブ・ジョブズ氏が死去した)。

iPhone 4sで撮った香港の景色。夕暮れ時にもかかわらず、暗所の画質が低下していない(筆者撮影)

iPhone 5~6sまでは、カメラの画素数は800万画素だが、年々画質は向上し、暗所撮影も強化されていく。

iPhone 5で撮った新宿の街並み。800万画素は、当時かなりの高解像度(筆者撮影)

iPhone 5sで撮った六本木ヒルズのクリスマス。ある程度灯りがあれば、夜景もきれいに撮れるようになった。階調性は乏しく黒つぶれ、白飛びが目立つ(筆者撮影)

iPhone 6で撮ったiPhoneの分解写真。接写にも強くなってきた(筆者撮影)

2015年登場のiPhone 6sで、ついにカメラの画素数は1200万画素になった。以来、基本的にはiPhone写真のカメラ画素数は1200万画素で保存される。

iPhone 14 Pro Max以降はメインカメラに4800万画素のセンサーを搭載する。ただし、そのセンサーは暗所性能に用いるもので、初期設定で保存される画像は1200万画素となっている。Android端末はより高い画素数を売りにしたモデルもあるが、アップルは、一般的な用途では1200万画素あれば十分だと考えているのだろう。

iPhone 6sでは、1200万画素の解像度に加え、彩度、階調性なども向上(筆者撮影)

iPhoneの進化は画質だけじゃない

iPhone 7の大型版、iPhone 7 Plusには、標準の28mm相当F1.8のレンズに加え、望遠の56mm相当F2.2のレンズが搭載された。2つのレンズは選択式ではなく、iPhoneのディスプレイ上でピンチアウトすると、適切な画角で自動的に切り替わるという、今に続く操作方法を実現していた。

iPhone 7ではさらに暗所性が向上。彩度も高くバランスが優れている(筆者撮影)

ここまで画質を中心に追ってきたが、世代を追うごとに、さまざまな撮影機能が追加されたことも見逃してはならない。動画が撮れるようになったのはiPhone 3GSから、インカメラが設けられたのは前述の通りiPhone 4からだが、それだけではない。

iPhone 5からパノラマ撮影、iPhone 5sからはバーストモード(連写機能)を追加。iPhone 6からは長時間撮影を短く見せるタイムラプスや、スローモーション、iPhone 6sから写真の前後3秒を記録するLive Photos、そして最大30fpsの4K動画、光学手ブレ補正も搭載。iPhone 7 Plusからは望遠レンズの切り替え機能、ポートレートモードなどが追加されている。

iPhone 13では映画のようなシーンが撮れるシネマティックモードが追加されるなど、新しい撮影体験は最も力を入れてアピールされてきた。

“Pro”という名称が使われるようになり、広角レンズが追加されて3眼レンズを搭載したのはiPhone 11 Proからで、iPhone 12 ProではさらにLiDARという深度情報を獲得できるセンサーを搭載。ポートレートモードの性能が大きく向上した。現行モデルに至るまで、Proモデルで3眼のカメラの横にある黒い丸がLiDARセンサーである。

iPhone Xの望遠側レンズで撮ったポートレートモードの写真。ボケの境界線が不自然だが、iPhone 12 ProのLiDAR搭載で、より自然な表現が可能となった(筆者撮影)

iPhone Xsでは光の弱い環境で、動きのある撮影が可能になった(筆者撮影)

iPhone 11で撮影。暗所撮影がさらに強化、奥のほうの解像感も高い(筆者撮影)

アップルは写真業界、映像業界、出版業界などと関わりが深いため、写真の仕上がりはクセの少ないニュートラルなものであることを重視し続けた。

彩度やコントラストを強くすると彩度が飽和したり、白飛びしたり、黒ツブレしたりした画像となり、後から加工が難しい。

しかし、iPhone Xの時代(2017年)から勢いを増してきたAndroidスマホは、彩度の鮮やかさと強めのコントラストで、いわゆる“映え”を意識した画質チューニングで人気が出始めた。ソフトウェアによる画像処理で、美顔モードなどを備え、目はパッチリ、肌はスベスベといった具合に“盛れる”のがSNS世代の需要と合致した。

アップルは、かたくなにその流れに乗らなかったが、iPhone 12 Proからソフトウェアによる画像処理自体は行うようになった。今日では当たり前のようにAIが処理している調整だ。

iPhone 12 Proで撮影した夜景。色味はビビッドになり、コントラストも強くなった。黒の部分はノイズが乗らないように画像処理で均一になっている(筆者撮影)

iPhone 12から“映え”に大きく舵を切った

iPhone Xから搭載し、徐々に進化してきたNeural Engineを用いることで、瞬時に高度な画像処理が可能になった影響も大きい。遠方の風景は解像感を高く、空は青く抜けがよく、人肌はナチュラルにと、『何が写っているか?』をiPhoneが理解するようになったのだ。

また、iPhone 12 ProからはApple ProRAWに対応し、iPhone単体で無加工の(しかしデータサイズは非常に大きい)画像の撮影が可能になっている。

精密な加工を施して作品として仕上げたいプロユースの場合はApple ProRAWで撮影できるようになったことで、通常の撮影時はNeural Engineで大きく加工して一般受けするような派手な画像に仕上げてもよいという方針になったのかもしれない。

いずれにせよiPhone 12 ProからiPhoneの画像は“映え”方向に大きく舵を切ったといえる。

iPhone 12 Proから夜の風景も、照明があるかのように明るく撮れるようになった。撮影者には、こんなに明るくは見えていない(筆者撮影)

iPhone 13 Proで撮った画像。暗所である砂浜のディテールや波の光沢感、夕焼けのオレンジ色など、スマホで撮ったとは思えないレベルに(筆者撮影)

近年になってもiPhoneのカメラの進化は止まらない。

まず、iPhone 14 Pro以降では、標準画角のカメラのセンサーが大型化され、4800万画素での撮影が可能となった。

この4800万画素のセンサーをそのまま4800万画素で使うのはApple ProRAW撮影のときだけで、通常撮影時には4倍ある撮像素子を感度や解像感を高めるために使う『ピクセルビニング』という処理に使ってる。このため、標準カメラで撮った画像は、iPhone 6sと変わらぬ1200万画素だが、写りは比較にならないほど美しくなった。

iPhone 14 Proで撮影。4800万画素のセンサーをピクセルピニングで使う『×1』の標準画角で撮ると、このように仕上がる(筆者撮影)

iPhone 11 Pro、12 Proでは3眼の設定が0.5倍、等倍、2倍だったのが、iPhone 13 Proでは0.5倍、等倍、3倍となり、さらにiPhone 14 Proでは、大型化されたメインセンサーの中央をクロップして2倍として使うことにより、3眼カメラで、0.5倍、等倍、2倍、3倍と4種類の画角を実現している。iPhone 15 Pro Maxでは、望遠側のレンズを5倍として、0.5倍、等倍、2倍、5倍としている。

進化しても“自然な写り”を残している

iPhone 15 Pro Maxの望遠レンズ5倍(120mm相当)で撮影したブルーインパルス。26~28mm固定の画角で、こんな写真が撮れるように(筆者撮影)

iPhone 15 Proの標準画角。元データではビルの部屋にいる人の様子まで伺える。夕陽のオレンジも、デジタルサイネージの色も余さず表現(筆者撮影)

ここ数年のiPhoneの写真性能の向上にはNeural Engineによる調整が大きく影響している。“物理的に写るもの”より“人が見たいと思ってるもの”を写すようになりつつも、Androidとは違うiPhoneらしい“自然な写り”を残している。完全にナチュラルな画像が必要な人は、Apple ProRAWで撮影すればいい。

日本時間9月10日午前2時からのスペシャルイベントでiPhone 16シリーズが発表される見込みだ。2007年の初代発売から17年間たゆまず進化してきたiPhoneのカメラが、強力なAIを伴いどのような進化を見せるのか。

(村上 タクタ : 編集者・ライター)

ジャンルで探す