はい、本当です。iOS 13で追加されたSoundAnalysisフレームワークは、Create ML(iOSの機械学習モデル作成用フレームワーク)で作成された機械学習モデルを利用し、マイクなどから読み込んだ音声信号に含まれる音を聞き分ける機能を実現します。
iOS 11で登場した「Core ML」は、機械学習プログラムが作成した学習済モデル(AIの判断材料となるデータベース)を利用して情報の推論を行うためのフレームワークです。Core ML自体には学習能力がないため、他所で作成されたさまざまな学習済モデルを持ち込むのです。たとえば、アプリに画像分類機能を持たせる場合、他所で作成された画像分類の学習済モデルをもとにCore MLの機能で推論を行います。
iOS 12のとき追加された「Create ML」は、Core MLで使用するための学習済モデルを作成するためのフレームワークです。画像分類やテキスト分類などカバーする範囲は限定的なものの、所定の領域に大量の画像やテキストを入れる程度で学習済モデルが手に入ります。
冒頭に挙げたSoundAnalysisフレームワークは、Create MLで作成した音声分類を目的としたCore ML用学習済モデルを使い、AIによる音の分類を可能にします。
具体的にどのような機能を実現するかは、iOS 13の正式リリースを待たなければなりませんが、Appleが公開したサンプルプログラムからある程度は推測が可能です(リンク)。
そのプログラムでは、Create MLで作成した各種楽器音の学習済モデルを用意しているとき、内蔵マイクから入力した音声データを分析しアコースティックギターやトロンボーン、スネアドラムの音を判定します。このように、アイデア次第ではおもしろいアプリが登場するかもしれませんよ。