すべてはSiriとサーチがポイント

今回の基調講演のデモで多用されていたのが、音声アシスタントのSiriとSpotlightの検索だ。

いずれも、自然言語での検索や命令に対応し、例えば、「昨年の6月の写真」「高校卒業の頃のヒットチャート」と話しかければ、写真アプリやミュージックアプリがそれぞれ目的のコンテンツを見つけ出し、表示してくれる。

Siriに昨年8月の写真を見せてと言うと……

昨年8月撮影の写真のみを表示する

これまでApple純正のサービスや天気、株価といった限られた情報を提示してきたSiriやSpotlightは、より広範に、アプリの中の情報を検索結果に表示できるようになった。当然、結果をタップすれば、アプリを開いて目的のコンテンツを直接表示できる。

今までiPhoneに限らず、コンピュータを操作する際、コンピュータの操作の流儀に沿ってコマンドを入力したり、マウス操作によって情報を引き出してきた。そうした経験が長い人からすれば、もっと自然に話しかければ答えてくれる、という感覚にどうしても慣れないかもしれない。

しかし、コンピュータの進化によって、我々の言葉でコンピュータに話しかければよくなっていく。こうした感覚の変化もiOS 9によって促されていくのではないだろうか。