iPhoneにおいて「Neural Engine」とは、機械学習関連の処理に特化したSoCの一部を意味します。iPhone Xに搭載の「A11 Bionic」で初めて搭載され、以降iPhone XS/XS Maxに搭載の「A12 Bionic」、iPhone 11/Pro/Pro Maxに搭載の「A13 Bionic」と機能強化が続けられてきました。
そもそもニューラルという言葉は、人間の脳内にある神経細胞(ニューロン)のつながりを意味する「ニューラルネットワーク」に由来し、AI/人工知能分野での活用を目指していると考えられます。しかし、現状のNeural Engineの用途は、AI/人工知能というより機械学習に近いものです。
AppleはNeural Engineの詳細を公開していませんが、iPhone XS/XS Maxの製品紹介文には、カメラのポートレートモードでは「カメラセンサーから集めたデータをNeural Engineが機械学習を使って分析」しているほか、「Neural Engineから集めたセグメンテーションデータを使って被写体を背景から正確に区別」することで深度マッピングを実現したことを明らかにしています。
近年半導体各社は、「ニューラルプロセッシングユニット(NPU)」と呼ばれるCPU/SoCの開発を積極的に進めています。画像や音声、自然言語の認識処理を行うためには、大量の比較的単純な演算を高速かつ低電力で実行する性能が求められるため、機械学習専用プロセッサを提供しようというわけです。iPhone XS/XS Maxの製品紹介文にある「毎秒5兆の演算処理」という表現からは、SoCに内蔵されたNPUであることがうかがえます。
iPhoneにおけるNeural Engineは、カメラのポートレートモード以外の具体的な用途は定かではないものの、他社NPUの利用状況を踏まえると、写真アプリの画像認識、ボイスコマンド(Siri)における音声認識に活用されていることは間違いなさそうです。