グーグルは9月2日、同社のYouTube SPACE TOKYOにて「YouTube 360/VRシンポジウム」を開催。VR対応の360度動画(360/VR 動画)に対する展望や撮影/編集ノウハウを紹介したほか、「Google Jump」や未発売の360度動画撮影用機材のお披露目などを行った。

米Google Manager of Technology ProgramsのTom Small氏

本稿では、日本初公開となったGoogle Jumpの特徴について、セッションに登壇した米Google Manager of Technology ProgramsのTom Small氏の言葉を借りながら紹介しよう。

Google Jumpとは?

先ほどから登場しているGoogle Jumpというサービス名を皆さんは耳にしたことがあるだろうか?

Google Jumpは、専用ハードウェア「ODYSSEY」で撮影した映像を360/VR 動画に変換するサービスである。

ODYSSEYは以下の写真のような撮影機材。ウェアラブルカメラのGoPro 16台と、それを円形状に配置するリグなどによって構成されており、Google Jump向けの機材として米GoProより販売されている。

日本初公開の「ODYSSEY」。GoPro16台を搭載

ODYSSEYによって撮影した動画ファイルをGoogle Jumpへアップロードすると、自動的にスティッチングされ、正距円筒図法の360/VR 動画が生成される。出力動画は8K、30p対応。周囲360度の様子を、解像度7680×4320、毎秒30フレームの(プログレッシブ方式)映像として描写する。

驚くべきは、そのスティッチングのアルゴリズムである。自動処理と言われると、単純に動画内の同じ部分の映像をつなぎ合わせるだけに聞こえるが、立体視のクオリティを追求するために、8Kに及ぶ映像を縦1画素列単位で最適化しているという。

「人間の脳は左右の目の視差によって立体感を生み出しますので、左右の目それぞれに映す画像のクオリティが非常に重要です。ODYSSEYには16台のカメラが付いていますが、カメラ正面の映像であれば、人間の片目で捉えるものとほぼ同じものが撮れるでしょう。しかし、そこからずれた場所の映像はやはりクオリティが落ちることになります。したがって、本来であればカメラを無数に敷き詰めたいところですが、カメラには物理的な大きさがありますのでそれは不可能です。そこで、Googleは、ソフトウェア企業らしく、この課題をソフトウェアで解決することにしました」(Small氏)

カメラは16台だが、それぞれの動画を独自アルゴリズムで合成し、画素列単位で正面の動画を生成。瞳孔間距離を6.4cmに設定し、左右の目の位置にピッタリあった映像が表示される仕組みだ。

「1周を8Kで映しているので、(およそ)8000個のカメラで撮影していよるようなもの。ODESSEYにはGoProが16個あるので、GoPro 1台あたりに約500個の仮想的なカメラを積んでいるとお考えいただければよいと思います」(Small氏)

>> PCで3000時間の処理をクラウドで48時間に