ここ数年ほど、業界を賑わせているキーワードのひとつに「忠実な僚機」(loyal wingman)がある。Royalなら「王族の僚機」になってしまうところだが、頭は “r”ではなくて “l” である。今回はこの「忠実な僚機」を取り上げる。
有人機と無人機のチーム化
そもそも僚機とは忠実なものであろうに、という話はともかく。この「忠実な僚機」が企図しているのは、有人機と無人機のチーム化。いわゆるMUM-T(Manned and Unmanned Teaming)の一種といえる。
MUM-Tの事例はすでにあり、例えばAH-64Eアパッチ・ガーディアン攻撃ヘリでやっている。ただし、この場合のMUM-Tは攻撃ヘリと偵察用無人機のチーム化。それに対して、「忠実な僚機」はもっとアグレッシブだ。ジェット戦闘機に、これまたジェット推進の無人機を組み合わせて、無人機には戦闘任務まで受け持たせる構想になっている。といっても当然ながら、交戦の可否に関する意思決定は人間の仕事。
その無人機の部分で「人工知能(AI : Artificial Intelligence)を活用します」とは、大抵の「忠実な僚機」計画の担当者がいっていることである。しかし、それだけでは具体的な内容が分からない。単に「AIを使いました」というだけではキャッチフレーズに過ぎない。
そもそも「忠実な僚機」には、「有人機を突っ込ませるには危険性が高い任務を、人命の損耗を気にしなくてもよい無人機に受け持たせる」という考え方がある。具体例を挙げると、敵防空網制圧(SEAD : Suppression Enemy Air Defense)だ。近接航空支援(CAS : Close Air Support)も危険度が高い任務といえるが、彼我の地上軍が対峙している最前線で敵軍だけを精確に攻撃しなければならないから、いきなり無人機にやらせるには荷が重そうだ。
もちろん、先に無人機を突っ込ませて現場を偵察することで、攻撃機が目標を探し求めてウロウロしなくても済むようにしたい、という考えもあるだろう。しかしそれなら、ジェット推進で飛行速度が高く、一応はステルス性にも配慮していそうな「忠実な僚機」を使うほどのことではないかもしれない。やはり、こういう機体はもっと烈度の高い任務を想定しているとみるのが自然だろう。
教育が必要なのは同じ
以前に第366回・第367回で取り上げた米国防高等研究計画局(DARPA : Defense Advanced Research Projects Agency)のACE(Air Combat Evolution)計画と同様に、素の状態のAIは「何も知らない」状態だ。すると格闘戦と同様に、SEADだろうがCASだろうが「教育」は必要である。
過去の任務経験に基づいて、「やるべきこと」「やってはいけないこと」「避けたほうがいいこと」「優先度が高いこと」「優先度が低いこと」に関するデータを大量に集めて、学習させなければ仕事にならない。もちろん、学習させるだけではなくて、学習させた結果に基づいて「仕事ができる」ことを確認しなければならない。
たとえば、SEADを担当するのであれば、「敵軍のレーダー電波を逆探知して解析、正体を突き止める」「その中から、どれをつぶすべきかを判断する」「進入・離脱の経路を決めて実行する」ぐらいのことは最低限、必要になると考えられる。レーダー電波の解析なら、すでにAIを取り込んでいる事例があるが、問題はその先だ。
場合によっては、忍び寄るのではなく、自ら目立つところに出ていって「囮」となり、敵の防空網を覚醒させる場面もあり得る。そういう戦術的判断も行えるようにならなければ、「人間に成り代わってAI無人機が行うSEAD」は成立しがたいのではないか。そして、戦術的判断について教育するには、まず戦術的判断ができる人材が必要になる。SEADミッションの経験がない空軍が、AIに対してSEADを教え込めるわけがない。
具体的な動きは?
こうした「忠実な僚機」計画のひとつに、オーストラリア空軍がボーイングと組んで進めているBATS(Boeing Airpower Teaming System)がある。機体の実大模型を2019年2月のアヴァロン・エアショーでお披露目した後、2020年5月に初号機が完成、お披露目した。4,000万豪ドル(2,570万ドル)の予算でプロトタイプ3機を製作することになっている。機体の全長は11.7m、航続距離は3,000~3,700km、ノーズ・セクションは任務に応じて構成の変更が可能。
そのBATSを手掛けているボーイング・オーストラリアは2020年9月8日に、無人機が搭載するAIに対して目標の探知・意思決定・行動を教え込む件について「進展があった」と発表した。シミュレータによる学習を行い、それを反映できていることを飛行試験で確認できた、という趣旨。
ただし、この試験における想定任務は情報収集・監視・偵察(ISR : Intelligence, Surveillance and Reconnaissance)で、まだ実弾をぶっ放す戦闘任務までは話は進んでいないようだ。まずはハードルの低そうなところで、AIに対する教育がちゃんとできることを確認した上で、さらに難度の高い任務にステップアップしていく考えなのではないかと推察される。ここのところがちゃんとできていないと、「AIを使いました」といっても単なるキャッチフレーズで終わってしまう。
そこのところは他の類似計画、例えば米空軍の「スカイヴォーグ」などでも同様だろう。その「スカイヴォーグ」計画はというと、エドワーズ空軍基地を拠点にして自律飛行関連の飛行試験を実施、これが2020年3月に完了している。この試験では、「スカイヴォーグ」の実機ではなく、無人ジェット機「レネゲード」を代用品にして、自律制御用のソフトウェアを試した。
こちらもまだ、実任務に関する「教育」を行うところまでは話は進んでいないようだ。実機が出てくれば「完成」ではなく、その機体を操るAIを学習させて、学習結果について検証するところまで進まなければ、使えるものにはならない。
著者プロフィール
井上孝司
鉄道・航空といった各種交通機関や軍事分野で、技術分野を中心とする著述活動を展開中のテクニカルライター。
マイクロソフト株式会社を経て1999年春に独立。『戦うコンピュータ(V)3』(潮書房光人社)のように情報通信技術を切口にする展開に加えて、さまざまな分野の記事を手掛ける。マイナビニュースに加えて『軍事研究』『丸』『Jwings』『航空ファン』『世界の艦船』『新幹線EX』などにも寄稿している。