Apple TVの話題に続いて基調講演で触れられたのがApple Watch。watchOS 4では、写真から万華鏡のような文字盤が作成できる機能や、Siriを全面に押し出すSiriフェイスの搭載、ワークアウトアプリの再デザインと、おすすめのワークアウトを提案するスマートコーチ機能を搭載するなど、非常にパワフルな新機能が搭載される。
中でも個人的に興味があるのはSiriフェイスだ。
Siriは現在でもApple Watchから利用でき、筆者はタイマー設定やワークアウトの開始などを声で操作するようになり、それが習慣化している。しかしSiriの役割はそれだけではない。行動やiPhone、Apple Watchといったデバイスの使用からパターンを見つけ出し、おすすめの情報や機能を先回りして提案するといったことも、Siriの名の元で行われている処理なのだ。この話題は後続のiOS 11の記事でも触れるが、iOS、tvOS、macOS、そしてwatchOSの各OSには、機械学習を高速に行うことができるCore MLが搭載され、オンデマンドの機械学習や人工知能処理を高速化、省電力化が図られている。
Apple Watchは、Apple Watch自身やiPhoneで処理された機械学習の結果を表示し、伝える最適なディスプレイ、という位置づけで捉えられる。Siriフェイスでは、次の予定やリマインダー、交通状況、日の出日の入りといった様々な情報を、通知のようなカードで次々に表示してくれ、デジタルクラウンでめくって閲覧し、自分の行動に役立てることができる。
これまで、Siriがどんな行動を学び、その結果、我々にどんなメリットをもたらしてくれるのか、なかなか分かりにくかった部分があるが、Siriフェイスは、より積極的にSiriの成果を確認することができるようになる。Siriにどんな可能性があるのか、何ができて、何ができないのか、という理解を深める上でも、Siriフェイスは是非試してみたいところだ。