WWDC16の基調講演の最後に、Appleは、この辺りの話題をまとめていた。
そのなかであげたキーワードは、以下の通りである。
- End-to-end encryption
- On-device intelligence
- No user profiling
- Differential privacy
これまでAppleが取り組んできたのは、2番目に挙げたデバイス内での機械学習だ。Siriの検索候補や、イヤホンジャックでアプリを推薦する機能は、まさにデバイスをユーザーがどのように利用しているかを、デバイス内で閉じて利用するアイディアである。
AppleはiOS 10で、このデバイス内での機械学習を活用する機能を追加する。
WWDCの基調講演では写真で自動的にアルバムを編集するメモリー、コミュニケーションを取る相手によって用いる通話(VoIP)やメッセージアプリの記憶、QuickTypeの予測変換候補にスケジュールなどの情報を活用、カレンダーと交通状況をマッチングさせた通知などが紹介された。
これらの情報は、端末の中にある情報を活用することで、より賢くiPhoneが動作してくれる仕組みを作り出そう、というアイディアだ。ユーザーはたくさんの情報をiPhoneに保存しており、これらを組み合わせるだけでも、十分賢さを演出できる、と考えたわけだ。
Appleが特には指摘していなかったが、筆者が感じたのは、入力や操作を簡略化するなどのユーザー体験に関わる部分に、学習結果を活かそうとしているように感じている。
学習と利用が端末内で閉じていれば、必ずしも、ユーザーのプロフィールとひも付ける必要がない。このことは、Appleにとっては、プライバシー優先と機械学習を生かした操作性の向上を両立する、スイートスポットとなっている。