話し言葉を理解してさまざまな処理を進めてくれる「Siri」は、その機能に注目すれば「音声アシスタント機能」という定義がしっくりきます。しかし、現在のiPhone/iOSにおけるSiriには、音声アシスタントという概念を超える機能が割り当てられています。
たとえば、Spotlight検索画面には「SIRIからの提案(APP)」という欄が用意されています。ここには、そのときユーザが必要としているであろうアプリのアイコンが表示されますが、そこにはアプリの利用頻度や起動された時間帯が反映されています。なぜこのアプリが? と不可解に思える表示も珍しくありませんが、ユーザの動きを学んだ成果であることは確かです。
iOSに標準装備のアプリにも、ユーザの動き/操作から必要な情報を推測する機能がいくつか用意されています。「連絡先」の検索フィールドに適当な名前を入力すると、連絡先に登録されていない人物の電話番号やメールアドレス、住所も推測してくれる機能はそのひとつで、受信したメールを分析/学習した成果です。
Appleでは、システムによる各種データの分析とそれに基づく推論を「人工知能(AI)」に位置付け、Siriの機能という形でiOSに搭載しています。使用状況を分析してユーザがこれから使うであろうアプリを推測する、これまで受信したメールの内容を調べて特定人物を推定する、といった処理は人工知能といって差し支えありません。
とはいえ、Siriの場合音声アシスタントとしての処理の大半はクラウド、使用したアプリや受信したメールの分析はローカル(iPhone)と、処理体系が分断されています。実際、利用頻度が高いアプリのことを話し言葉でSiriに尋ねても答えませんし、連絡先に登録のない人物の情報は話してくれません。この点を踏まえると、「音声アシスタントとしてのSiri」と「AIとしてのSiri」が共存しているのが現在のiPhone、といえるでしょう。