Dellは10月5日、都内でHPC関連に関するカンファレンスを開催したのに併せてNVIDIAと共同でプレス説明会を開催。GPUコンピューティングの動向をNVIDIAが説明したほか、Dellが同社のGPUコンピューティングへの取り組みの説明を行った。
NVIDIAの内容については同社日本法人エヌビディアのNVIDIA Tesla Quadro事業部 GPUコンピューティング担当シニア・エンジニアの平野幸彦氏 |
NVIDIAの内容については同社日本法人エヌビディアのNVIDIA Tesla Quadro事業部 GPUコンピューティング担当シニア・エンジニアの平野幸彦氏が説明、9月20日より23日にかけて同社が米国にて開催したGPU Technology Conference(GTC)2010にて同社の社長兼CEOであるJen-Hsun Huang氏が語ったことを踏まえ、状況説明を行った。
コンピュータの処理性能の向上は1978年にリリースされた「VAX-11/780」を1とした場合、86年頃より年率50%程度の増加を続けてきたが、2002年頃よりその増加傾向が鈍化、20%程度となってきている。その結果、「このままの性能向上で進めば、2021年には年率50%で成長した場合と比べ、性能差は100倍程度ついてしまうこととなる」(平野氏)であり、こうした性能鈍化を補うために並列コンピューティングに注目が集まるようになり、NVIDIAでもGPUコンピューティング提唱して現在までさまざまな取り組みを行ってきたという。
VAX-11/780を1とした場合のコンピュータの性能向上の推移。2007年発表の論文を元にした図だが、当時の状態で、このまま進めば2022年には性能向上のギャップは100倍に達するという予測がなされていた |
特に大きなインパクトとなったのが2007年に登場したCUDAプラットフォーム。同プラットフォームの上で、さまざまなコンピュータ言語を用い、NVIDIAやサードパーティが提供するライブラリを活用することで実際にGPUコンピューティングによるアプリケーションを扱いやすくなったというのがNVIDIAの主張するところだ。
こうした動きを反映して、STMicroelectronicsの子会社であるPortland Group(PGI)が「CUDA-x86」を開発中であることを発表。これにより、例えば「データセンター内において、GPUを搭載したサーバとGPUを搭載しないサーバが混在していたとしても、GPUありの状態で動くソースコードとGPUなしの状態(x86のCPU上)で動くソースコードを一括して生成することが可能となり、従来わずらわしかったソースコードの管理が容易になる」(同)という動きも出てきた。
また、MATLABの最新バージョン「MATLAB R2010b」では、CUDA対応のNVIDIAデバイスを使用したGPU演算をサポートした「Parallel Computing Toolbox」が搭載されたほか、モデリングおよび分子力学と動力学計算シミュレーションプログラム「AMBER」のバージョン11でもマルチGPUの対応がアナウンスされた。
さらに年内に登場予定のANSYSの構造/熱シミュレーション・ソフトウェア「ANSYS Mechanical」の最新版「ANSYS Mechanical R13」でもGPU対応が図られる予定となっているほか、 Autodeskの3Dモデリング、アニメーション、レンダリング向けソフトウェア「Autodesk 3ds Max」にNVIDIAの子会社であるMental Imagesのレンファリングソリューション「iray」が搭載されることが決まるなど、GPUコンピューティングを産業界の実アプリケーションが活用しようという動きが徐々に出てきている。
「NVIDIAとしては、ハードからソフトまで広くエコシステムを構築することを目指してきた。そうした中において、ソリューションプロバイダ部分において、グローバルに展開できる規模を有するメジャーなベンダが入っていなかった。今回、Dellがそうした立場になってくれたことで、GPUコンピューティングに対するエコシステムがほぼ完全な形となった」(同)とし、このエコシステムの活用により、従来の科学分野の理論を立てて、それを実証する実験を行い、そして再びそこから理論を立てて、また実験をというサイクルから、そこにシミュレーションという新たな柱を入れられるようになる(「The 3rd Pillar of Science」)ほか、そうしたシミュレーションの活用により、電子顕微鏡でもとらえられないようなミクロな領域の図式化や、処理速度の向上による新たなビジネスの創生などにつながることが期待されるとした。