Googleは12月19日「Google Pixel 4 カメラ機能に関する記者説明会」を開催しました。説明してくれたのはGoogle Research Distinguished EngineerのMarc Levoy氏。ここでは日本のユーザーの関心の高いPixel 3/4での高画質化機能をかいつまんでレポートします。
スマホのカメラと通常のデジタルカメラの違い、それはソフトウェアのマジックで「ソフトウェアデファインドカメラ」にあるとMarc氏は言い、多くのトレーニングデータで機械学習を行う事で精度が上げられると説明します。さらにGoogleは世界に対して"マジックのタネ明かし"をすることで、イノベーションを加速させたいと言い、今回は4つの機能の裏側を説明しました。
ライブでプレビュー表示できるHDRの威力
1つ目がHDR。通常のHDRはハイライト部分とシャドー部分に分けて撮影して合成しますが、この方法だと撮影に時間差があるので"動き"に対して問題が発生します。そこでGoogleが行ったのは(露光不足になっても)連写する事。これによって通常部分はそのまま利用できますし、シャドー部分は合成することでノイズを減らせます。
さらにPixel 4では、コンピュートパワーを生かして機械学習で近似値を計算し、結果の画像をライブでプレビュー画面に表示するライブHDR+と、それにより、プレビューしながらシャドーとハイライトの調整が可能になるデュアル画像補正を可能にしました。
機械学習で人と背景を見分けるポートレート
2つ目はポートレートモード。従来スマホのポートレートは二つ以上のカメラを使って、得られた奥行(深度)情報を元に「関係ないエリア」をボカすことで大口径カメラのようなボケを実現していました。
Pixel 3では一つのカメラでもポートレートモードが実現できています。これはセンサーが持つ位相差検知オートフォーカスの仕組みを使って奥行情報を得られます。これによって奥行によってボカシを入れることができるというわけです。ただし、通常のカメラと異なり、ある程度の奥行範囲に限定してボカしを入れないことができるので、鼻の頭も目もピントがあった状態の画像を得ることができます。
Pixel 4はデュアルカメラに進化したので、上下と左右の二つの深度マップを得ることができ、さらに画質を向上させることができます。
手振れを利用した超解像ズーム
3つ目は超解像ズーム。実はカラー撮影素子の一つ一つはすべての色を読み取ることができません(RGBの色フィルターが付いているので、各素子はその色しか読めないのです)。これを解決するために使用したのが「手振れ」です。
撮影中にカメラ動かすことで、止まっていては読み取れない隣接したピクセルの読み取りを可能にしており、手振れ補正のOISを使う事でわざと動かして情報量を増やしています。これによって2倍の光学ズーム相当の画質を得ることができます。さらにPixel 4では2倍の光学ズーム機能を併用することで実質4倍までかなりよい画質の画像が得られます。
ここでMarc氏は「広い画面から切り取りするよりもピンチ機能でズームしたほうが最終画像のクオリティがよくなる」とアドバイスしていました。
星空も撮れる夜景モードは「絵画」に学んだ
4番目は夜景モード(ナイトショット)。これもHDR+同様に複数フレームの撮影を合成するもの。天体写真機能になれば最大16秒(Pixel 4の場合、Pixel 3は4秒)の長時間露光によってより暗い星を捉えることが可能になります。天体写真機能はカメラアプリで夜景モードに設定し、さらに三脚で固定するかスマホスタンド等で立てかけ動かさない事で利用可能になります(先日カメラアプリがアップデートされてPixel 3でも天体写真機能に対応しました)。
夜景モードの場合は動いているものの判断で露光時間を変えるほか、ホワイトバランスも機械学習を使い「雪と判断すれば白い」と判断させ調整するようになっています。また長時間露光を行うと素子のバラツキでドットが出てしまう「ホットピクセル」が発生しますが、これに対策は隣接画素から判断して対策するようになっています。
夜景モードはPixel 3から利用できるようになりましたが、プレビュー画面を見ると「え? こんな画像だったっけ?」と思う事がままあります。Marc氏はこれに対して、人間の目は暗い所だと色がわからないが、たとえばネズミならば色の違いを理解できる。同様に人の目にはわからない色味をセンサーが取り込むことができるからだと説明します。