GPGPUがスムーズにHPC(High Performance Computing)分野で受け入れられたのは、2000年代に入ってCPUのようなユニプロセッサ(単一コアのプロセッサ)の性能向上率が、ムーアの法則に従えなくなってきたからだ。ムーアの法則とは、年率1.5倍(約18カ月で2倍)で半導体集積度が上がり、それに比例して性能も上がるという著名な業界経験則で、Intelのゴードン・ムーアが提唱したもの。ムーアの法則に従えなくなってきたのは、「煉瓦の壁理論」と呼ばれるデビッド・パターソンの提唱した障害があるからだ。これは簡単に言うとプロセッサの性能向上率が、「常識の範囲内の消費電力に収めなければならない制約がある」「メモリ速度の限界によって制限される」「ILP(Instruction-level parallelism,命令の並列実行性能)の向上には限界がある」というような「壁」によって押さえ込まれてしまうから。
これが、「もはやプロセッサの性能向上は極端なコアの増殖で実現するしかない」……という風潮を高めることになり、もともと「コア増殖進化」を地で行っていたGPUが脚光を浴びることとなったのだ。
さらに言えばGPUはもともとメモリアクセスのレイテンシがあることを大前提としていたアーキテクチャであり、メモリアクセス・レイテンシを大量のスレッドを走らせることで隠蔽するというアーキテクチャを採用していた。これも強い追い風となる。
ここで、NVIDIAの舵取りが大胆だったのは、他社に先駆けてGPGPUのプラットフォーム構築に乗り出したところ。それが「CUDA」であった。
NVIDIAは、CUDAを通して、NVIDIA GPUの演算コアの最小単位の仕様を公開したことで、開発者は、どういう処理単位でパラレリズムが実現されるかを意識しながらアプリケーションを開発できる。NVIDIAは、未来に登場する新GPUにおいても、基本的には、その最小単位の演算コアを増殖させるだけで構成でき、さらにCUDAアプリケーションは、そのコア増強された新GPUではスケーラブルなパフォーマンスアップが保証される。
GPGPU(およびCUDA)は、2000年に突入してから伸び悩んでいたコンピューティングパワーを、再び勢いのある物に変える力がある……ということなのだ。