Intel® Xeon® シリーズの「Sapphire Rapids」は、データセンター向けに開発した次世代CPUだ。これまでのIce Lake世代からアップデートされた機能的な特徴について紹介したうえで、クラウド事業者やデータセンター事業者、そしてクラウドを利用する企業が注目すべき価値について解説する。
データセンターの新しい標準アーキテクチャ「Sapphire Rapids」
インテルはSapphire Rapidsを、データセンターの新しい標準アーキテクチャと位置づけている。データセンター向けの仕様に関しては、主要なマイクロアーキテクチャが一新され、IPC(1サイクルあたりの処理命令数)が向上。大規模なコードやデータのサポートについても、より良いものになった。また、マルチテナントでの利用時には公平な性能を発揮する。
では、機能的特徴の進化を、ノード性能とデータセンター性能、それぞれの側面から見ていこう。
ず、ノード性能については、新アーキテクチャに基づいて開発した高性能コアが一つの命令で、1つの処理を行うスカラ演算の性能を高めている。そして、アクセラレーターエンジンの集積および搭載コア数増加によって、データ並列処理の性能向上を実現している。
キャッシュおよびメモリサブシステムアーキテクチャに関しては、下記に注力している。
- プライベートキャッシュと共有キャッシュの増加
- DRAMの規格の第5世代に当たる「DDR5 SDRAM」の採用
- 新しい不揮発性メモリーを使った「Intel® Optane™メモリー」のサポート
- PCIe4.0比で2倍のデータ転送速度を誇る「PCIe 5.0」の導入
そのほか、下記の取り組みによって、ソケット内およびソケット間の性能向上も図っている。
- モジュラーSoCやモジュラーダイのファブリック接続
- UPI(Ultra Path Interconnect:CPU間およびCPUとチップセットを結ぶデータ伝送路)の拡幅や高速化
- 独自開発した高性能・高密度パッケージング技術「EMIB(Embedded Multi-die Interconnect Bridge)」の採用
前世代のIce Lakeでは1つのダイを搭載していたが、Sapphire Rapidsでは大型化したダイを4つのタイルに分割している。4つのタイルをつなぐことで1つのCPUとして機能するアーキテクチャとなっており、どのスレッドからでも全てのリソースにアクセスできる。これを可能にしているのがEMIBなどの技術で、低遅延や帯域幅の拡大を実現している。
次に、データセンター性能について紹介する。コンソリデーションやオーケストレーションの観点から、仮想マシンのマイグレーションの高速化、テレメトリングの改良、I/O仮想化などが行われている。性能整合性の面では、低ジッタを実現するアーキテクチャによる実行時間の安定化、キャッシュとメモリー間の遅延のばらつき低減、プロセッサー間の割り込みの仮想化などが施されている。
また、データセンターの使用効率を向上させるために、バスインターフェイス規格「CXL1.1」をサポート。データへのアクセス速度をスピーディにする Intel® Optane™ パーシステント・メモリー と併用することで、近年膨大化しているワークロード需要へ対応できるよう、工夫がなされている。
インフラストラクチャーやフレームワークに関しては、ワークロードアクセラレーターの統合、セキュリティやRAS(Reliability, Availability and Serviceability:コンピュータシステムが期待される機能・性能を発揮できるか検証するための評価項目)の改善を図っている。
デジタルファースト時代こそ必要なCPUの性能差
デジタルファーストの時代を生き抜くうえで、企業には俊敏性や効率性、革新性が問われている。具体的には、いつでもどこからでも必要に応じてデータ、コンテンツ、サービスにアクセスできる俊敏性と安定性の確保が必要だ。これらを実現する基礎となるのがクラウドの利用で、企業は将来を見据えてクラウド戦略を構築し、改良しつづけなければならない。
とはいえ、1つの万能なクラウド環境を構築・維持することは難しい。それぞれの強みに適した環境を利用するハイブリッドクラウド戦略が不可欠となる。
ハイブリッドクラウド戦略は、パブリッククラウド環境とプライベートクラウド環境間でのデータとアプリケーションの共有を可能にし、両環境を融合させたものだ。この戦略によって、企業はワークロードにふさわしいインフラストラクチャーを選択できるようになる。
クラウドを選ぶ際、着目すべき要素は多岐にわたる。用途によって適切にインフラストラクチャーを選び、判断することが大切だが、選択の際に見逃してしまいがちなのが「CPUの性能」という判断軸だ。オンプレミスとの比較では、クラウドベンダーがコスト面を強調しすぎる向きもあり、ユーザー企業は価格を優先して考えがちな側面にある。
だが、デジタルファースト時代のエンドユーザーの期待に応えるためには、企業はサービスを展開する基盤の構成を慎重に見極めるべきだろう。ここで言うエンドユーザーの期待とは俊敏性と安定性を指す。本来の導入目的である業務の効率化よりも価格を優先した結果、レスポンスが悪く業務効率が低下してしまったり、エンドユーザーの不満蓄積を招いてしまったりしたのでは本末転倒である。
CPUの性能差を比較する指標の1つとして、コア数を考える方もいるだろう。しかし、CPUあるいは仮想CPUのコア数が同一でも、IssS事業者やデータセンター事業者によって性能が大きく異なることは珍しくない。性能の差にはネットワークやストレージも関係していると考えられるが、とくにAIやマイクロサービスアーキテクチャを動かす場合は、CPUの持つ性能の差が如実に表れやすい。
Sapphire Rapidsの大きな特徴は、マイクロサービスアーキテクチャおよびAIワークロード向けの設計に重きを置いた点だ。
インテルは最近のトレンドであるマイクロサービスを重視しており、Sapphire Rapidsはマイクロサービスアーキテクチャ実行時の負荷が小さくなるように設計されている。スループットはCascade Lakeと比べて69%、Ice Lake Serverと比べて45%向上している。
さらに、インテルでは今後のAIの利用拡大も強く意識している。次世代の命令拡張(命令に追加属性を提供するもの)である「Intel® Advanced Matrix Extensions(Intel®AMX)」を実装し、推論および学習の高速化を実現。また、ディープラーニング計算用の8バイト整数であるINT8や、機械学習のアルゴリズムを高速化する浮動小数点形式であるbfloat16といったデータ型をサポートすることでAI処理の効率向上を図っている。これらの処理については、通常のXeon® プロセッサーからの命令として処理を実行できる仕組みが構築されている。
加えて、データストリーミング用のアクセラレーションエンジンも特筆すべきポイントだ。CPUのコアサイクルをオフローディングすることで、多くのCPUリソースをほかの処理に回すことができる。たとえば、オフローディングしていない状態で、CPUのコアが45%程度のサイクルを処理し、55%はデータの移動を行っているケースにおいて、アクセラレーションエンジンを起動すると、データ移動に割いていたうち39%のCPUコアサイクルがオフロードできる。
Sapphire Rapidsは、この10年以上の期間における“データセンターCPU最大の飛躍”と期待されている。デジタルファーストと言われる時代だからこそ、着実に差が付くポイントとして、改めてCPUに着目してはいかがだろうか。
[PR]提供:インテル