各種クラウドサービスから自動運転車、囲碁や将棋といったアナログゲームに至るまで、人工知能にまつわる話題は毎日のようにニュース媒体を賑わせている。こうした人工知能の恩恵は、いわゆるIoT、組み込み機器や家電などにまでもたらされようとしている。その背景にあるのがNVIDIAの「Jetson TX1」の存在だ。
莫大なリソースを要求する人工知能開発
人工知能の開発にはいくつかの方法があるが、現在、先端手法に位置づけられるのが「ディープラーニング」だ。ディープラーニングでは、数テラバイトに達する莫大なデータ(ビッグデータ)を、「ニューラルネットワーク」と呼ばれる演算ネットワークを多層構造化したモデルを通じて解析し、正解を類推するという手法で学習していく。
十分な学習を積んだ人工知能は、人間と同等、あるいはそれ以上の確率で正解を導き出すことができ、人間には見つけられなかった新しい「正解」を生み出すことすらある。将棋や囲碁でプロ棋士をコンピュータが破ったといったニュースは、ディープラーニングによる成果である。
非常に有望なディプラーニングだが、問題もある。ディープラーニングでは最初にビッグデータを読み込ませてデータを解析する「学習」と、実世界でのデータと突き合わせてみる「推論」の2つのフェーズがあり、「学習」にかかるリソースが非常に大きいのだ。
ディープラーニングを活用した画像認識のイメージ。ディープラーニングでは大量のデータをもとにして学習を行う。最初は猫の画像を読み込ませても誤った結果が出るが、大量のデータを読み込ませていくことで猫の画像として認識可能となる。こうした学習済みのモデルで実世界のデータと付き合わせると正しく猫画像を認識できるようになる(出展:NVIDIA公表資料より) |
具体的には、現在、デスクトップPC用で最高性能を誇るインテルのCore i7シリーズのCPUでも、学習には数カ月を要する例が一般的で、スーパーコンピュータやワークステーションでも、学習にかかる時間を大幅に縮小するには至っていない。
膨大な演算量を必要とするディープラーニングだが、こうした状況を改善する手段が「GPUコンピューティング」だ。本来3Dグラフィックの描画に使われるGPUだが、内部では描画のために複雑な演算を繰り返している。この構図がディープラーニングで行われる多階層の行列演算と極めて似通っており、すぐさま応用が可能だったのだ。