米AMDは現地時間の6月13日、「Data Center and AI Technology Premiere」と題したイベントを開催した。この内容はオンラインでも視聴可能であるが、開催に先立ち内容の事前説明が行われたので、この内容をベースにご紹介したい。
現在AMDは、Data Center向けにGenoaベースのEPYC CPUとAMD Instinct MIシリーズのAIアクセラレータ、旧XilinxのFPGAおよびAdapative SoC、それに旧PensandoのSmartNICおよびDPUという製品ラインナップを用意している(Photo01)。
今回はこのうちEPYCとAI Accelerator、およびPensando系NPU/DPUの新製品が発表された(Photo02)。
さてまずはCPUから。以前から「Zen 4c」というコード名で知られていた、Compute Densityを高めた新コアを搭載した「Bergamo」というラインナップが用意されている話は公開されていたが、今回これが「EPYC 97X4シリーズ」として発表された(Photo03)。
最大128コア構成であり、説明によれば従来製品と比較して2.7倍の性能/消費電力比、それとサーバーあたり最大3倍のコンテナの稼働が可能、とされている。
もう1つの新製品が3D V-Cacheを搭載したGenoa-XベースのEPYCである(Photo04)。こちらはRyzen 9 7900シリーズと異なり、全ダイが3D V-Cache搭載のものになるため、L3の合計は1152MBと、ついに1GBを超えるL3を搭載することになる。
ちなみに今回はまだ詳細は明らかにされていないが、これ以外に通信およびEdge向けとして「Siena」と呼ばれる製品を現在開発中であり、こちらは今年後半にリリース予定となっている(Photo05)。
次にAI Accelerator。現在提供しているAMD Instinct MI250/250Xの後継製品としてInstinct MI300が提供されるという話は以前公開されており、しかもCPUとGPUのChiplet構成によるAPUになるというところまではすでにアナウンスがあったが、
- ハイエンド製品はInstinct MI300Xとなる。CDNA3アーキテクチャに基づくこのMI300は最大192GBのHBM3メモリを搭載しており、例えばFalcon-40Bの様な400億個ものパラメータを持つ巨大なAIモデルを外部メモリなしに稼働させることが可能である。
- このInstinct MI300Xを8つ搭載するAMD Infinity Architecture Platformも同時に発表される。こちらは生成AIの学習や推論などに最適とされ、今年第3四半期中に主要顧客へのサンプル出荷を開始する。
- これとは別にInstinct MI300AというHPCおよびAIワークロードに最適化したAPUも容易されており、現在サンプル出荷中である。
- ROCmもこのInstinct MI300X/MI300Aに対応しており、エコシステムパートナーとの協業事例も増えている 事が発表された。こちらも詳細は後程レポートしたい。 そして3つ目がDPU向けである。従来AMDのSmartNICは旧Xilinx系(=旧SolarflareのSmartNIC)をベースとしたものであったが、今回Pensando DPUを搭載したSmartNICが発表される「らしい」(Photo06)。
加えて、そのPensando由来のSmart Switchの存在も明らかにされた(Photo07)。
また次世代DPUである「Giglio」というコード名の製品を現在開発中であり、2023年末に出荷予定であることも同時に明らかにされた。
加えて、Pensando向けのSSDK(Software-in-Silicon Developer Kit)を公開し、P4での開発環境を提供することを明らかにしている。
事前説明では細かな話はあまり公開されなかったが、本番の講演ではもう少し詳細が公開されることになると思われる。こちらは後追いの形でレポートしたい。