Preferred Networks(PFN)は11月15日、同社独自開発のAIプロセッサ「MN-Coreシリーズ」の最新製品として、大規模言語モデルなどの生成AIの推論処理に最適化した「MN-Core L1000」の開発を開始したことを発表した。

  • 生成AIの推論処理向けプロセッサ「MN-Core L1000」

    生成AIの推論処理向けプロセッサ「MN-Core L1000」のイメージ画像 (提供:PFN)

MN-Coreのアーキテクチャは、高密度にハードウェア実装された演算器と分散メモリをソフトウェアで制御することで、演算時の消費電力と排熱を最小化することを目指しており、三次元積層メモリの技術課題の1つである演算器の高温対策についても、排熱が少ないことによって対応することができるという特徴がある。L1000では、こうした思想を引き継ぎ、生成AI利用時の推論に特有の処理に最適化することを目的に、メモリとロジックのデータのやり取りを高速かつ低消費電力で処理するために三次元積層メモリ(DRAM)を採用。これにより、HBMと比べてもメモリ帯域幅を拡大しつつ、SRAMではなくDRAMを採用することで、容量とコスト、高速化の最適なバランスを実現するとしており、GPUなどの既存プロセッサと比べて、生成AI利用時の推論処理を最大10倍高速化しつつ、高い電力効率を提供するとしている。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら