米Googleは1月27日(米国時間)、同社が開発した「AlphaGo」という囲碁プログラムが、置き石などハンデのないフルサイズの囲碁で初めて人間のプロ棋士に勝利したことを明らかにした。Google DeepMindチームのDemis Hassabisが公式ブログでAlphaGoの概要を説明しているほか、27日発行の科学雑誌NetureにAlphaGoに関する論文が掲載された。
AI(人工知能)は三目並べやチェッカーに始まり、近年ではチェスや将棋でプロ棋士を打ち負かしてきたが、広い盤面で指し手の組み合わせが多岐にわたる囲碁ではプロレベルの壁を打ち破れずにいた。
DeepMindチームは、可能な指し手にサーチツリーを割り当てる従来のAI方式だけでは通用しないと考え、サーチツリーを押し進めたモンテカルロツリーサーチ(MCTS)とディープニューラルネットワークを組み合わせた。それがAlphaGoである。数百万のニューロンのような接続から成る12の異なるネットワーク層が指し手を分析する。例えば、ニューラルネットワークの1つ「ポリシーネットワーク」が次の手を選択、別のニューラルネットワーク「バリューネットワーク」が、その手を評価してゲームの勝者を予測する。
AlphaGoのトレーニングは、囲碁のエキスパートによるおよそ3,000万の指し手の学習から始まった。57%の確率で人の指し手を予測できるようになるまでニューラルネットワークを鍛えると、指し手を再現するだけではなく、AlphaGoが自ら新たな戦略を組み立てられるように、ニューラルネットワーク間の対局、強化学習と呼ばれる試行錯誤を用いた接続の調整を重ねた。
トレーニングプログラムを完了したAlphaGoは、既存の囲碁プログラムとトーナメント形式で対戦。500戦中499勝と圧勝し、そして昨年10月にロンドンにおいて非公開でファン・フイ氏と対局した。フイ氏は過去3回ヨーロッパチャンピオンになった実力者だが、AlphaGoは5戦して5勝と完勝した。
初めてプロ棋士に勝利したAlphaGoは、次に囲碁界の最高峰に挑む。3月にソウルでイ・セドル九段と対局する予定だ。