Apple

iPhone 11 ProのiOS 13.2で有効になったDeep Fusion機能を試す。

AppleはiOS 13.2をの提供を開始した。対応する製品でアップデートをすることが出来る。iOS 13.2を適用したiPhone 11シリーズでは、Deep Fusionという機能が利用出来るようになった。

Deep Fusionでは、A13 Bionic搭載のNeural Engineを使用し、画像を解析をして低ノイズの写真を撮影できるというもの。今回は、iPhone 11 Proを利用し、iOS 13.2にアップデートする前と後で撮影し比較してみることとした。

Deep Fusionの動き

THE VERGE(https://www.theverge.com/2019/10/1/20893516/apple-deep-fusion-camera-mode-iphone-11-pro-max-ios-13-beta)を参考に、Deep Fusionの処理について書いていく。

 

カメラごとの挙動

標準レンズ 光量が普通程度だとSmart HDRが使用され、それより暗い場合はDeep Fusionが使用される。更に暗い場合はDeep Fusionが使用される。
望遠レンズ
(iPhone 11 Pro/11 Pro MAXのみ)
基本的にはDeep Fusionが使用され、光量が十分にある状態ではSmart HDRが使用される。(ナイトモードは標準レンズのみ対応しており、カメラ倍率が2x表示になっている場合でも、ナイトモードを使用する際は標準レンズが使用される)
広角レンズ Deep Fusionとナイトモードに非対応のため、Smart HDRが常に使用される。

ナイトモードと異なり、Deep Fusionは有効になっているかどうかの表示が無いため、ユーザーが認識する方法は無いとのこと。

 

処理の流れ

Deep Fusionは、バックグラウンドで多くの処理を行っているとしている。ざっと書くと処理は下記のような流れだ。

  1. ユーザーがシャッターボタンを押した瞬間の4フレーム前から撮影は開始される。シャッターを押すことで、長時間露光で写真が撮影され、細かく描写された写真が撮られる
  2. 瞬時に撮影された複数の写真と、長時間露光の写真を、Synthetic long技術により合成する。Smart HDRとの違いはここにある。
  3. 最も綺麗に撮れた写真を選び、画像を合成する
  4. 4つの処理を済ませ、細部まで綺麗に見えるように処理がされる。
  5. 写真データが完成する

複数の処理を行うため、若干の時間がかかるとのこと。撮影直後にすぐカメラロールを開くと、完全に処理が完了する前の写真が表示されるが、処理が完了次第写真データは差し替えられる。

 

ノイズが低減されたように感じる

ここではiPhone 11 Proを使用し、iOS 13.2にアップデートする前と後で写真を撮影してみた。端末を複数台用意しての比較ではないので、条件多少なりとも異なるかもしれない。

 

いくつか撮影したが、作例となりそうなものはあまり撮る事ができなかった。かろうじて上記の写真がノイズの低減を確認できそうなため掲載した。

iOS 13.2にアップデートしたiPhone 11 Proで撮影した写真は、iOS 13.1.3のiPhone 11 Proで撮影した写真よりもノイズが低減されているように見える。ユーザーはDeep Fusionが有効になっているかは確認することが出来ないため、上記の写真で同機能が適用されているかは不明だ。

 

違いの判別は難しい

iOS側が最適な写真にしようと処理をしているということと、アップデートしてしまうとDeep Fusionをオフにすることも出来なくなるため、違いの判別は難しい。比較用に写真を何枚か撮影してはみたが、正直なところよく分からなかった。

自動的にきれいな写真を撮影してくれるのであれば、ユーザーとしては越したことは無いが、Smart HDRのように設定画面からオンオフの切り替えが出来たら尚良かっただろう。