すべてはSiriとサーチがポイント
今回の基調講演のデモで多用されていたのが、音声アシスタントのSiriとSpotlightの検索だ。
いずれも、自然言語での検索や命令に対応し、例えば、「昨年の6月の写真」「高校卒業の頃のヒットチャート」と話しかければ、写真アプリやミュージックアプリがそれぞれ目的のコンテンツを見つけ出し、表示してくれる。
これまでApple純正のサービスや天気、株価といった限られた情報を提示してきたSiriやSpotlightは、より広範に、アプリの中の情報を検索結果に表示できるようになった。当然、結果をタップすれば、アプリを開いて目的のコンテンツを直接表示できる。
今までiPhoneに限らず、コンピュータを操作する際、コンピュータの操作の流儀に沿ってコマンドを入力したり、マウス操作によって情報を引き出してきた。そうした経験が長い人からすれば、もっと自然に話しかければ答えてくれる、という感覚にどうしても慣れないかもしれない。
しかし、コンピュータの進化によって、我々の言葉でコンピュータに話しかければよくなっていく。こうした感覚の変化もiOS 9によって促されていくのではないだろうか。