iPhoneのカメラのしくみについて、ユーザーが写真を撮影している訳では無い、ということらしいです。
資料:GIGAZINE「「iPhone 11/11 Pro」のカメラ性能がどう進化したのかを専門家が分析」
ユーザーがシャッターボタンをタップする前に、既にiPhoneは複数の画像を撮影しており、シャッターボタンをタップした瞬間の画像をソフトウェアが取得するという処理が行われているためです。
カメラアプリを開くと画像のリングバッファのようなものを開始し、シャッターボタンをタップするとiPhoneはバッファの中から最もシャープな画像を選択します。
この仕組みを知らないユーザーは自分が画像を撮影したものと勘違いしますが、実際にはOSが自動で撮影した画像の中からiPhoneが最も優れたものを選び出しているだけであり、どのタイミングの画像を選出するかをユーザーがザックリ指定しただけとも言えます。
さらに、Appleによると出力される画像は、複数の画像の露出を複合的に処理したものとなるそうです。
(引用: GIGAZINEより)
▼この記事によると、カメラアプリを開くとOSが自動で撮影を開始します。
ユーザーがシャッターボタンを押すと、そのタイミングの中で最適な画像を選び出し表示される、という事のようです。
また、この記事には「スマートHDR」という機能についても書かれています。
スマートHDRはiPhone XS以降の端末で利用可能な機能で、露出が高すぎる画像と低すぎる画像を組み合わせて1枚の画像を作り出すことで、画像の影部分や白飛びしている部分をより精細に表現するというもの。なお、スマートHDRの「HDR」はハイダイナミックレンジ合成の略です。
人間の目は非常に高性能で、20ストップ程度のダイナミックレンジが可能だそうです。それに対して、記事作成時点ではフルサイズ一眼レフカメラとして最新モデルのα7R IVは低感度時は約15ストップ、iPhone 11シリーズは約10ストップのダイナミックレンジが可能とのこと。なお、フィルム写真のネガフィルムの場合、ダイナミックレンジは13ストップ程度だそうです。
(引用: GIGAZINEより)
▼このように、iPhoneのカメラでは写真を撮影するだけで最適が加工がされてユーザーに提供されているというわけですね。
コメントを残す