一方のCUDAだが、CUDA2.0正式版のリリースに対し「近日中にアナウンスできると思う」(NVIDIA)としている。すでにCUDAは前バージョンから含め10万を超す数がダウンロードされており、「世界中の大学、研究機関でCUDAが用いられ始めており、徐々に成果が出てきている」(Sumit氏)という。
例えば、東京大学大学院の先端治療福祉工学研究室(Advanced Therapeutic and Rehabilitation Engineering Laboratory:ATRE Lab)では、3次元空間投影された動画像を映し出す「Integral Videography(IV)」と呼ばれる技術にGPUコンピューティングを用いている。IVによるオーバレイナビゲーションシステムを用いた外科手術では、患者の表面に内部情報をリアルタイムで表示することができるようになるため、術者は直感的に患部の位置を把握可能となり、従来のナビゲーションに比べ患部の摘出率を向上させることができるようになるという。
そのCUDA2.0だが、来月にはマルチコアCPUをサポートできるようになるという。「これまでマルチコアに対応したアプリケーションを作るには2つのアプリをプログラミング言語で記述する必要があった。しかし、CUDA2.0がマルチコアCPUをサポートすることにより、パラレルプログラミングができる環境を提供することができるようになる」(同)という。
なおCUDAの今後の計画としては、「Fortran/C++」、「Multiple GPUs」「Debugger」「Profier」「GPU Cluster」などの対応が予定されているという。一番最初はFortranへの対応で、「今年中にサポートする計画」(同)としている。
また、Multiple GPUsについては、2つの路線があるという。1つは、従来のグラフィックス製品のように1つの製品に演算処理を行うGPUとグラフィックス表示を担うGPUを搭載するというもの。もう1つは、Teslaのような演算機能のみの製品に「GeForce」や「Quadro」のようなグラフィックス製品をつなげる場合だが、この場合、従来は演算処理されたデータは一度CPU(メモリ)を介してグラフィックス側に送るという手順を踏んでいた。しかし、それではリアルタイム性を求める演算の場合などでは転送速度がボトルネックとなり真のリアルタイム性を実現することは難しかった。そのため、CPUを介さずにPCI Expressをブリッジすることで、処理速度の向上を図るという。こちらに関しても「年末までには対応したい」(同)とした。