アップルは今年6月に開催した世界開発者会議「WWDC 2017」で、数多くの進化を含むiPhone・iPad向けOS、「iOS 11」を披露した。中でも注目を集めたのは、機械学習の実行環境とともに、拡張現実(AR)アプリの開発を容易にする「ARKit」の存在だ。
ARKitの第一印象と、他社との違い
スマートフォンとARは、必ずしも新しい関係性ではない。世界的に有名になった日本のスタートアップ、頓智ドットが開発したiPhoneアプリ「セカイカメラ」は、スマートフォンのカメラをONにして現実空間に浮かぶ情報を見る、というスマホにおけるAR体験の原体験を規定した、非常に重要なアプリだった。
セカイカメラのワールドプレビューは2009年。サービス自体は2014年までに全て終了しているが、登場から8年たった2017年に、シリコンバレーのプラットホーム企業がこぞってARを取り入れた新サービスを発表した。
フェイスブックは4月の開発者会議F8で、スマートフォンのカメラをARの第一のプラットホームに据える、と発表し、スマートフォンのカメラを用いたAR活用として、情報表示、デジタルオブジェクト、そして装飾という3つの用途を挙げた。
同時に、これらのARコンテンツを作成できるツールやプラットホームを公開し、スマートフォンアプリにも積極的にAR機能を盛りこんでいる。写真やビデオの撮影、ライブ配信時に、人や風景にリアルタイムでフレームやお面などを重ねて表示できる仕組みで、特にコミュニケーションでのAR活用を提案した。
グーグルは5月の開発者会議Google I/Oで、Googleアシスタントの機能として「Google Lens」を発表した。これまで声や文字で入力して人工知能を生かした情報提供の仕組みを実現していたGoogleアシスタントに対して、スマホのカメラからの画像入力を追加した格好だ。
グーグルのデモはより実用的だった。例えば名前の分からない花にカメラを向ければ、マシンビジョンによってその花の名前の候補を挙げてくれる。そうすれば花に関する検索ができるようになる。またWi-FiのIDとパスワードを映し出せば、スマートフォンが自動的にその情報を使ってネットワーク接続を済ませてくれる。街の店にカメラを向ければ、その店の名前とレビューが表示される、といった具合だ。