イリノイ大学でIMPACTプロジェクトを主導するWen-Mei Hwu氏によると、シーケンシャル処理用に書かれた古いプログラムからコンパイラで自動的に並列(パラレル)性を引き出そうという努力は、ほとんどがうまくいかないという。また、GPGPUのCUDAのようなレベルでパラレル処理プログラムを書くのは非常に難しい。並列性を明示的にプログラミングするMPIなどのアプローチもプログラミングが難しいし、並列規模が変わると修正が必要となる。そのため、1,000コアのような並列度の高いプロセッサでの並列性の利用には、新しいアプローチが必要であると述べた。
Hwu氏が提案するアプローチは、並列化を念頭に置いたシーケンシャルプログラムともいうべきもので、「Implicit Parallel Programming」と呼んでいる。プログラムはシーケンシャル処理用と同様に書き、コンパイラ側でうまく並列化できない部分については、プログラマにフィードバックを行う。例えば入力と出力となる配列は重なりがないので、それを利用した並列化を行って良いなどのヒントをアサーションとしてプログラムに記述する。そうすれば、コンパイラは並列度の高いコードを生成することが可能になる。このアプローチにより、プログラマは並列機構がどのように動作するかを意識する必要がなく、プログラムの生産性も向上し、ほかのハードウェアへの移植性も高くなる。また、シーケンシャルプログラムのため、デバッグも容易であるという。
そして、IBMのDarringer氏は、"メニーコア"のLSIを設計する場合のEDAシステムに対する要件について詳細に説明した。
この1,000コアという大規模なマルチコアプロセッサについてのセッションを聴講した感想であるが、Borkar氏の述べたように、おそらくは2015年頃には小規模なコアを使った1,000コアのプロセッサが作れるようになるだろう。しかしアムダールの法則を考えると、一般的なプログラムではシーケンシャル処理の部分がネックとなり、その性能を引き出せるとは考え難い。そのため、1,000コアのプロセッサは限定された並列性の高い処理だけを実行するアクセラレータとしての位置付けで実用化されるだろう。
またHwu氏は、Borkar氏が主張した「ムーアの法則に従ってソフトウェアのスケーラビリティを2年ごとに倍増する」ということは考えられないと述べた。これについては、現状、Microsoft社のOfficeなどのアプリケーションを見る限りでは4コアのパラレル処理も怪しいので、当然の見解と言える。
一方、科学技術計算では問題規模、マルチメディア処理では画素(ピクセル)数などを増やせば、シリアル処理を行う部分は規模にはほとんど依存しない。しかしパラレル処理が可能な処理量は問題規模の1~3乗で増えるので、相対的にTsが減少し、スケーラビリティが上がる。したがって筆者は、ソフトウェア開発者が努力しなくても、いったん並列性があるように書かれたアプリケーションのスケーラビリティはムーアの法則に従って改善されていくと楽観している。