2017年6月19日(独自間)、スーパーコンピュータ(スパコン)の性能ランキングである「TOP500」の公開に併せる形で、消費電力あたりで演算性能が高いスパコンのランキング「Green500」の2017年6月版も発表された。
今回のGreen500のトップ10において、日本勢は1位から4位までを独占したほか、7位ならびに8位にもランクイン。10システム中6システムと、過半数を超すシステムをランクインさせ、前回(2016年11月)の3位(理化学研究所)、5位(富士通)、6位(Joint Center for Advanced High Performance Computing:JCAHPC)、9位(京都大学)の4システム、前々回(2016年6月)の2システム(いずれも理研)から着実に成果をあげてきている。
2017年6月版のGreen500のトップ10リスト。10システム中6システムが日本勢によるもの。7位のGyokukouがグレーがかっているのは、電力に関するデータが測定値ではなく、公称値のため (出所:Green500 Webサイト) |
トップとなったのは東京工業大学(東工大) 学術国際情報センター(GSIC)の次世代スパコン「TSUBAME3.0」(TOP500は61位)で、1Wあたりの演算性能は14.110GFlops。「Xeon E5-2680v4(14コア、2.4GHz)」にアクセラレータとして「NVIDIA Tesla P100 SXM2」を接続したシステムだが、Hisa Ando氏のレポートにもあるように、全システムを稼動させての計測、というわけにはいかなかった模様だ。
2位はヤフーのディープラーニング活用向けシステムとして、ExaScalarとHPCシステムズが手がけた「kukai(クウカイ)」(TOP500は466位)で、1Wあたりの演算性能は14.046GFlopsと1位のTSUBAME3.0との差はわずかに0.64GFlops/Wと、まさにタッチの差とでも言えるような差で1位を逃した形となった。こちらは、「Xeon E5-2650Lv4(14コア、1.7GHz)」にアクセラレータとして「Tesla P100」を接続したシステムで、液浸方式を採用した点が特徴として挙げられる。
3位は東工大と協力関係にある産業技術総合研究所(産総研)人工知能研究センター(AIRC)のクラウド型計算システム「産総研AIクラウド(AAIC)」(TOP500は148位)で、1Wあたりの演算性能は12.681GFlopsとなっている。「Xeon E5-2630Lv4(10コア、1.8GHz)」に「NVIDIA Tesla P100 SXM2」を接続したシステムで、リアルタイムの電力モニタリングデータに基づいて、ストレージシステム、ネットワーク機器を含むシステム全体の消費電力を最大で150kWに抑える省エネ運用を可能とした点が特徴として挙げられる。
4位は理研 革新知能統合研究センター(AIP)の人工知能(AI)研究用計算機システム「RAIDEN(Riken AIp Deep learning ENvironment)」(TOP500は306位)で、1Wあたりの演算性能は10.603GFlopsとなっている。「Xeon E5-2698v4(20コア、2.2GHz)」にNVIDIAのAIスパコン「DGX-1」を24台組み合わせており、2017年3月時点では、DGX-1クラスタとしては世界最大規模のシステムとされている。
そして7位には海洋研究開発機構(JAMSTEC)のPEZYグループであるExaScalerの「ZettaScaler-2.0システム」を採用した「Gyoukou(暁光)」(TOP500で69位)が10.226GFLOPS/Wで、8位には国立環境研究所の室効果ガス観測技術衛星2号「GOSAT-2」の観測データ解析処理アルゴリズム研究などに向けたスパコン「Research Computation Facility for GOSAT-2(RCF2)」(TOP500で220位)が9.797GFLOPS/Wでそれぞれランクインした。
なぜ日本は省エネスパコンが増えるのか
近年のGreen500での日本勢の増加の背景には、日本の地域的な事情が大きいと考えられる。というのも、単純にスパコンの性能だけ向上させようとすれば、CPUとGPUのようなアクセラレータの数を増やしていけば良い。しかし、そこに立ちはだかるのが消費電力も同時に増加していく、という問題である。
ちなみに、2017年6月版のTOP500のトップ10のスパコンの消費電力はというと、1位のSunway TaihuLightが15371kW(15.371MW)、2位のTianhe-2が17808kW(17.808MW)、3位のPiz Daintが2272kW(2.272MW)、4位のTitanが8209kW(8.209MW)、5位のSequoiaが7890kW(7.890MW)、6位のCoriが3939kW(3.939MW)、7位のOakforest-PACSが2719kW(2.719MW)、8位の京コンピュータが12660kW(12.660MW)、9位のMiraが3945kW(3.945MW)、10位のTrinityが4233kW(4.233MW)と、いずれも2MWを超す電力を必要としている。
世界的にもエクサスケールのスパコンでも許容できる電力は20MWと言われており、電力効率の劇的な向上が求められている、という背景もあるが、それ以上に日本では1つの施設で用いることができる総電力そのものに上限があり、あまり高い電力のシステムを導入できないという問題が省エネスパコンの導入が進む1つの要因として考えられるのだ。
最近は、あらかじめ比較的電力に余裕がある地域に設置する、当初から余裕を持たせた電力を確保しておく、といった取り組みなども進められており、ある程度大きな電力が使える余地も見受けられるようにはなってきた感はあるものの、根本的な問題を解決するためには、やはり消費電力を抑えたまま、高い演算性能をいかに達成するか、という点を踏まえる必要があり、それが今回の動きにつながったものとみられる。
とはいえ、今回の成果は、各システムにおけるさまざまな電力効率向上に向けた取り組みと、NVIDIAのGPU(Tesla P100)をアクセラレータとして活用した、という点にあると言え、今後の電力効率向上は、NVIDIAの動向次第、という言い方もできる。ただし、そうした動きに対し、日本にて、スパコンシステムを開発するExaScalerやPEZY-SC系のプロセッサの開発を進めるPEZY Computingなどで構成されるPEZYグループがエクサスケールスパコンの開発を計画するなど、別の方向性を模索する動きもでてきている。いずれにせよ、これからも、現在注目されているディープラーニングやAIといった分野のほか、さまざまな学術用途や産業用途でもスパコンの活用が進められていくこととなることは確実で、そうした用途の拡大に電力効率の高いスパコンを活用するというニーズは合致していくものと思われる。