NVIDIAは9月8日(米国時間)、「Hopper Sweeps AI Inference Tests in MLPerf Debut」において、同社の最新GPU「NVIDIA H100 Tensor Core GPU」(以下、H100)が業界標準のAIベンチマークであるMLPerfベンチマークで世界記録を樹立したと発表した。既存のNVIDIAの最速GPUチップは「NVIDIA A100 Tensor Core GPU」(以下、A100)だが、H100はA100よりも最大で4.5倍のパフォーマンスを記録したという。
MPerfベンチマーク(MLPerfTM Inference 2.1)は、機械学習向けの業界標準のベンチマークである。GoogleやBaidu、ハーバード大学、スタンフォード大学などによって設立された業界団体の「MLCommons」が提供しており、機械学習のパフォーマンスを表す標準的な指標として使われている。
NVIDIAのH100は、ハイパフォーマンスコンピューティング向けのアーキテクチャである「NVIDIA Hopper」をベースとして開発された最新GPUである。画像認識や画像合成、大規模言語モデルなどのAI技術やハイエンドデータセンターに活用できる次世代のGPUとして位置付けられているが、現時点ではまだ開発中であり、市場には投入されていない。
NVIDIAの発表によれば、今回H100は、6つのニューラルネットワークすべてにおいてアクセラレータあたりのパフォーマンスを大幅に更新したという。特に、自然言語処理のパフォーマンスを測定するBERT-Largeベンチマークでは、サーバ環境でA100の約4倍、オフライン環境でA100の約4.5倍という好成績を記録している。NVIDIAでは、この結果をHpperアーキテクチャに新たに搭載されたTransformer Engineの効果によるものだと推定している。
H100は2022年後半にリリースされる予定となっている。今回のMLPerfベンチマークの結果は、H100による最初の公開デモンストレーションという位置付けになっている。H100は2022年後半にリリースされる予定となっており、NVIDIAではトレーニングのためにH100を今後のMLPerfラウンドに参加させると表明している。