野村総合研究所(NRI)とNRIデジタルは1月11日、生成AI(人工知能)の利用にあたって大きな懸念事項となる、データ漏えいリスクを極小化するという生成AIソリューションである「プライベートLLM(大規模言語モデル)」を、2024年春以降に提供開始する予定と発表した。新ソリューションは、金融機関など特に高いレベルの情報セキュリティ統制を必要とする企業が利用することを想定している。
生成AI「プライベートLLM」の特徴
同ソリューションの特徴として両社は、1)プライベート・クラウドやオンプレミス環境で動作、2)個別企業の業務に合わせたLLMのカスタマイズ、3)周辺モジュールの提供、4)NRI社内業務を対象とした性能と効果の確認、の4点を挙げる。
動作環境に関しては、機密・機微情報を安全に扱えるようプライベート・クラウドやオンプレミスで動作可能にしたという。
同ソリューションでは、米MetaのLlama 2を始めとする基盤モデルを公開しているLLMを、NRIのデータ・センターで稼働するプライベート・クラウド・サービスや企業自身が情報システムを保有し運用するオンプレミス環境で動作させることで、機密・機微情報を安全に扱うことを可能にする。金融機関などが求める、高レベルの情報セキュリティ統制にも対応可能としている。
データの漏えいリスクを極小化
LLMのカスタマイズに関しては、企業が持つデータを利用してカスタマイズ(プリトレーニング、ファイン・チューニングなど)することで、タスク内容によっては業務に適用可能な水準の性能の発揮が期待できるという。
同ソリューションでは、より機密性が高い学習時点のデータの漏えいリスクも極小化した上で、各社の業務に最も適した形でLLMをカスタマイズする。周辺モジュールに関しては、個人の特定が可能な音声データの漏えいリスクを極小化する「プライベート音声認識」モジュールなどを提供していく。
性能と効果については、同ソリューションの性能を検証するため、NRIにおいて社内の会計事務手続きサポート業務に適用したとのこと。
カスタマイズ用の学習データ6万件を用いて、同社のデータ・センターに設置したGPU上で動作するLlama 2のファイン・チューニングを行ったところ、業務に適用可能な水準まで性能が向上したという。
その結果、同ソリューションにより当該業務の一部を代替し、Q&A作成の作業時間を60%削減できたとしている。