そのため今回の手法では、行動後の状況予測にルールを使用しないという。その代わりに、ロボットが過去に行動した経験に基づいて、状況予測の能力をニューラルネットワーク(NN)に学習させるとする。学習を終えたNNは、現在の状況およびそこで取ろうとする行動から、行動後(つまり少し先の未来)の状況を予測することが可能となるという。この時、上述したアフォーダンス認識を行うことで、未来の状況において取り得る行動をリストアップすることもできるとしている。

さらに、アフォーダンス認識と状況予測を交互に行うことで、現在置かれている状況を出発点として、ロボットが実現しうるもっと先の未来の状況を予測することも可能になるとする。このようにして得られる多様な予測の中から目標達成につながるルートを見つけ出せれば、それを実現する行動列も明らかになるとした。

  • アフォーダンス認識と状況予測を用いた行動計画の模式図

    アフォーダンス認識と状況予測を用いた行動計画の模式図(出所:信大プレスリリースPDF)

続いて、今回の手法の有効性がシミュレーションにより検証された。まず、テーブル上に置かれた複数の物品(ボール・カップ・ブロック)をロボットアームが操作できるようにし、それらを持ち上げたり動かしたりすることで行動経験を収集したのち、状況予測の能力の学習を行ったという。その後、行動の順番や物品配置の安定性、物品同士の相互作用などを理解していることが求められる課題を用意し、AIがこれらの課題を解けることが確認されたという。

今回の手法における特徴の1つは、人間がルールを与える方式では実現できない粒度での状況予測を可能にしているという点だ。さらに、設計者が入力するルールに縛られないことから、設計者が想定しなかった解決策が得られる可能性もある。検証実験では、「ブロックの上に載ったボールを、ブロックを傾けることで視野外に転がり落とす」ことで、「ボールを視界から消す」という目標が達成された事例もあったという。

研究チームは今後、ロボットの行動レパートリーを拡張したり、ユーザーが文章を与えることにより目標を指定できるようにするとしている。また、初見の物品も扱えるようにするなど、手法をより一般化して実用性を高めていく予定だとした。