WWDC16の基調講演の最後に、Appleは、この辺りの話題をまとめていた。

そのなかであげたキーワードは、以下の通りである。

  • End-to-end encryption
  • On-device intelligence
  • No user profiling
  • Differential privacy

これまでAppleが取り組んできたのは、2番目に挙げたデバイス内での機械学習だ。Siriの検索候補や、イヤホンジャックでアプリを推薦する機能は、まさにデバイスをユーザーがどのように利用しているかを、デバイス内で閉じて利用するアイディアである。

AppleはiOS 10で、このデバイス内での機械学習を活用する機能を追加する。

WWDCの基調講演では写真で自動的にアルバムを編集するメモリー、コミュニケーションを取る相手によって用いる通話(VoIP)やメッセージアプリの記憶、QuickTypeの予測変換候補にスケジュールなどの情報を活用、カレンダーと交通状況をマッチングさせた通知などが紹介された。

これらの情報は、端末の中にある情報を活用することで、より賢くiPhoneが動作してくれる仕組みを作り出そう、というアイディアだ。ユーザーはたくさんの情報をiPhoneに保存しており、これらを組み合わせるだけでも、十分賢さを演出できる、と考えたわけだ。

Appleはユーザープロファイルを用いない形での機械学習を推進しているとアピールする。使用データと個人データがひも付けば、特定個人が何をしているのかを浮かび上がらせてしまう

Appleが特には指摘していなかったが、筆者が感じたのは、入力や操作を簡略化するなどのユーザー体験に関わる部分に、学習結果を活かそうとしているように感じている。

学習と利用が端末内で閉じていれば、必ずしも、ユーザーのプロフィールとひも付ける必要がない。このことは、Appleにとっては、プライバシー優先と機械学習を生かした操作性の向上を両立する、スイートスポットとなっている。