米NVIDIAは18日(独時間)、スタンフォード大学人工知能ラボの研究チームと共同で、ヒトの脳の学習方法をモデル化する世界最大の人工ニューラルネットワークを構築したと発表した。
これまで世界最大とされてきたGoogleのニューラルネットワーク(2012年構築)は、合計約16,000個のCPUコアを搭載した1,000台のサーバーによるもので、ニューロン同士の接続にあたるパラメータ数が17億だったという。
それに対し、今回発表されたニューラルネットワークは112億のパラメータ数を達成。約6.5倍にのぼるパラメータ数を合計16基のNVIDIA製GPUを搭載した3台のサーバーによって実現した。
同社によると、GPUの計算能力はCPUよりも大幅に高く、人間のようなAI(人工知能)を実現するために適している「機械学習」において、GPUの利用が進んでいるという。