NVIDIAは11月12日~13日に、ユーザー向けAIカンファレンス「NVIDIA AI Summit Japan」を東京都内のホテルで開催した。同イベントでは生成AIやロボティクス、LLM(Large Language Models:大規模言語モデル)などをテーマに50以上のセッションやデモが披露された。
本連載では、イベント2日目に開催されたソブリンAIに関するパネルディスカッションの模様を、全3回に分けてお届けする。進行はNVIDIA エンタープライズ事業本部長の井崎武士氏が務めた。トークテーマは「ソブリンAI、その役割と想像する新たな可能性」。第2回となる本稿では、国産生成AIの開発を支援するプロジェクト「GENIAC」を中心に紹介していく。
登壇者は以下の通り。
・東京大学 大学院総合文化研究科 准教授 馬場雪乃氏
・経済産業省 商務情報政策局 情報産業課 情報処理基盤産業室室長 渡辺琢也氏
・ソフトバンク テクノロジーユニット統括 データ基盤戦略本部執行役員本部長 / SB Intuitions 代表取締役社長 兼 CEO 丹波廣寅氏
・Turing 共同創業者 取締役 青木俊介氏
国産のAI基盤構築を支援する「GENIAC」の進捗
井崎氏:ソブリンAIの開発と活用に向けて、日本政府はGENIAC(Generative AI Accelerator Challenge)を立ち上げました。ちょうどその第2期が始まったと聞いています。渡辺さん、これまでの成果や課題はいかがですか。
渡辺氏:GENIACは国内で生成AIの開発力を底上げする目的で始まり、コンピュート資源の提供やデータの利活用促進、ナレッジのシェアなどに取り組んでいます。生成AIのようなイノベーティブな領域では、黎明期におけるスタートアップの働きが重要です。一方で、スタートアップはコンピュート資源やデータの確保が難しい。だから、大企業とのコラボレーションが欠かせません。
2月~8月がGENIACの第1期で、現在は第2期です。1期目の成果として、日本でもようやく4ケタ億パラメータ規模のLLMを複数社が開発できるようになり、そこに300人ほどのエンジニアが関わって経験を積みました。もう一つの成果は、特定のユースケースだけに絞ればOpenAIやGoogleの汎用的なLLMよりも高い成果を出せるようになったことです。これは日本にとってもチャンスです。
2期目では文章だけでなく、画像や動画、分子構造の生成などマルチモーダルなAIの開発が進んでいます。また、ユースケースを絞ったAIの活用も進んでいます。現在の課題はデータです。競争力のあるAIを作ろうとすると、やはりデータが必要です。データを持つ大企業もプロジェクトに巻き込んで、いかにスタートアップとのコラボレーションを促すのかを考えなければいけません。
井崎氏:第2期の議論の中ではデータプレパレーション(データを収集・加工し分析できるよう準備するプロセス)で採択されたプロジェクトもありました。第1期を振り返って、課題が見えてきた中で第2期の候補が絞り込まれているのを感じます。
渡辺氏:第1期は基礎体力作りの時期で、「とりあえず作ってみた」段階です。2期目は「何をどの分野でどのように使うのか」をしっかり考えるために、データを使う側の人たちも巻き込んでエコシステムを回さなければいけないと考えています。
スタートアップと大企業、AIを実装する事業者の見解は?
井崎氏:青木さんはGENIACに参加する側の立場ですが、どのような成果が出ていると感じますか。
青木氏:GENIACは動きが早く、自由にやらせてもらえるのでとても助かっています。成果は大きく2つあります。まずは、自動運転に応用できそうなVLM(Vision and Language Modeol:画像言語モデル)を自分たちで構築できました。
もう一つの成果は、GPUをたくさん提供していただいたことでリソースに余力が生まれたので、そこでいろいろ試せたことです。その結果、「世界モデル」を作れました。これは、世界をAIで再現しようというモデルです。
追加で一点挙げるとするならば、私たちが海外も巻き込んで資金調達をする際に、GENIACや日本政府の姿勢が海外から評価されています。国が軍隊を持っていると「AIを戦争の道具に使うのか」という疑念を持たれるのですが、日本は公式には軍隊を持っていませんので、その心配がありません。日本は鉄腕アトムを生み出した国でもありますし、AIを身近なフレンドとして捉えてきた歴史があります。そういった立場を上手に生かしているのがGENIACだと思います。
井崎氏:ソフトバンクは大企業として世の中に独自のAIを実装するリーディングカンパニーの立場です。最近はどのような戦略を持っていますか。
丹波氏:まず、より大きなパラメータを持つLLMの構築をチャレンジと考えています。当然、そればかりをやるわけにはいきませんので、数十億~数百億パラメータのモデルも並行して作っています。日本語をベースとしたLLMを作れるようにしておかないと、そもそもモデルを作る技術が自国で失われてしまうためです。他国製のLLMを言われたとおりに使うことしかできなくなる状況を危惧しています。
もう一つのチャレンジは、モデルを作りながらユースケースや適応例を自分たちで考えることです。汎用モデルと専門モデルはそれぞれメリットがあります。専門モデルはある特定の分野において汎用モデルよりも高い性能を発揮しますが、汎用モデルは異なる分野の知識を組み合わせて出力できる強みがあります。こうしたこともチャレンジの中で少しずつ見えてきたことです。
モデルそのものを作ることに加えて、AIエージェントのようなものも視野に入れなければいけません。インタフェースとしてAIエージェントがあり、その裏側で複数の専門モデルが動くという手法です。こういったモデル周辺の技術開発もグループ全体で進めています。
将来的には、単に生成AIをチャット形式の検索やデータベースとして使うだけではなく、コマンドやトリガーをきっかけにしてロボットや車を動かせるようになるはずです。このように、モデルの適用先を拡大して社会基盤として使えるようにしたいですね。
渡辺氏:私もGENIACのプロジェクトを考えるときに、同じことを考えます。LLMではOpenAIやAnthropicが有名ですが、「勝てるわけがないじゃないか」「なぜ挑むんだ」といった意見が多く寄せられました。しかしまだLLMは黎明期にありますし、海外製のモデルも業務で十分に使いこなせるわけではありません。
インターネットは1990年代に普及し始めて現在まで進化を続けていますし、生成AIも同様にこれから数十年かけて進化するはずです。それなのに最初からイノベーションを諦めて、基盤となるモデルを自国で開発する力を失ってしまうのは、勘弁してほしいと思っています。