Microsoftは従来のソフトウェアを中心としたスタイルから、タブレットやスマートフォン、クラウドサービスなどを含めた「デバイス&サービスカンパニー」を目指している。だが、Windows OSが今日明日なくなるわけではない。昨年行われた大規模な組織改編後も、開発部門はもちろん研究部門もそのまま残されている。
日本マイクロソフトは27日、現在の状況や「Microsoft Research」における最新研究をアピールするため、同社の業務執行役員 最高技術責任者 兼 マイクロソフトディベロップメント 代表取締役社長の加治佐俊一氏による記者説明会を行った(図01)。
加治佐氏の説明によれば、Microsoftから独立した状態で設立された研究所「Microsoft Research」は、2013年11月で15周年を迎えたばかりだという。世界に7つある研究所の1つ、北京のMicrosoft Research Asiaでは、NUI(ナチュラルユーザーインタフェース)や次世代マルチメディアなどを研究している。設立当初は1人しかいなかった日本人も、現在は6人まで増えたそうだ(図02)。今回はMicrosoft Research Asiaによる研究結果の発表が中心となった。
実世界とバーチャル世界の融合を目指す「Urban Computing」
まず「Urban Computing」は、都市におけるデータを集約し、実世界とバーチャル世界の融合を目指すプロジェクトだ。例えばタクシーにセンサーを付けて取得したデータの活用など、都市に役立つ研究を行っているという。会場では、PM2.5による大気汚染の状態を、市内36カ所に設置したセンサーで視覚化するデモンストレーションが披露された(図03~04)。
図03 Microsoft Research Asiaの「Urban Computing」は、都市の各情報をデータ化し、実世界とバーチャル世界の融合を目指すプロジェクトだ |
図04 北京市で発生しているPM2.5を数値化したマップ。100以上が危険水域だそうだ |
さらに風速や人、車の動きなど各種データを追加することで、大気汚染がどの方向に広まるかなどを推測可能にし、空気が澄んでいる地域をジョギングコースとして提案するといった応用例を目指しているそうだ。同社は既にBing Mapというサービスと、Windows Phoneというスマートフォンデバイスを所有しているため、今後のローンチも容易だろう。なお、既に「UrbanAir」はWebサイトが用意されているので、興味を持たれた方はアクセスしてみて欲しい(図05)。
音声や顔をデジタルデバイス上で実現する「3D FACE」
次の研究結果として「3D FACE」の説明が行われた。同プロジェクトの基盤となるのは、顔のテクスチャーや本人の声による音声合成を組み合わせた「Talking Head」だが、より簡単なアプローチで音声や顔をデジタルデバイス上で実現することを目標とする。多数の階層を持った人工ニューラルネットワークモデル「DNN」(Deep Neural Network)を応用し、自然かつ高精度の顔データを実現したそうだ(図06)。
会場で流れた動画によれば、Windows Phoneで人物の顔全体を1分ほど撮影。データは自動的にクラウドへアップロードされ、レンダリング処理が行われる。「Talking Head」は高精度に注力していたが、「3D FACE」はスマートフォンという「常時ネットワーク」のデバイスが現実的になったことで、クラウドを活用した面白いアプローチといえるだろう(図07~08)。
3Dプリンターの課題解決や、新型「Kinect」も
3つめは3Dプリンターにおける最適化。Microsoft Researchは3Dプリンターの技術的な課題として、一部の安価な3Dプリンターにおいて、プリント処理に問題が発生して正しく作成されないケースが顕著という点を挙げている。ほかにも材質や触感などいくつかの問題を確認しており、これらを技術的アプローチで改善できないかを研究しているという。
図09はデモンストレーションの1つだが、通常の3Dプリンターで作成したオブジェクトは中身が空洞なため、テーブルに置くと倒れてしまう。だが、Microsoft Researchは強度計算や中身のメッシュ構造を計算するといった最適化を行い、倒れないオブジェクトの作成を実現した。また、図10は1本足でバランスを取る馬のオブジェクトに、1kgの重りを乗せても倒れない、もしくはつぶれないオブジェクト作成を可能にした様子だ(図09~10)。
このほかにも「BodyAvatar」(ボディーアバター)の説明が行われたが、こちらは以前の記事『Microsoftの未来を垣間見る2013年の「TechFest」』をご覧頂き、Xbox Oneのオプションである新型「Kinect」センサーについて述べておこう。既に開発者向けとして「Kinect for Windows v2 Developer Preview」の有料提供が始まっているが、加治佐氏によれば非常に好評で、さらに500人の追加募集枠を設けるそうだ(図11)。
会場では動画による新型Kinectの性能紹介に加え、加治佐氏による実際のデモンストレーションを披露。Xbox Oneは音声認識で起動する仕組みを備えているが、最初はうまく起動せず、「今は格好よく発音しないと起動しませんが、今後改善していきます」とフォローする場面も。そして新型Kinectの機能を試すXbox One用アプリケーション「NUI Revolution」を起動し、「Muscle&Force」を実際に試していた。既に何度も動画では目にしてきたが、やはり目の前にすると、センサーが大幅に強化されていることを確認できる(図12)。
今回発表された内容はいずれも研究結果であり、残念ながら製品やサービスとしてローンチされるものではない。だが、今回の発表会からは、今後のMicrosoftおよび日本マイクロソフトが目指す方向性の一片を垣間見ることができるはずだ。今後も同社の動向に注目したい。
阿久津良和(Cactus)