国内外を問わず、LLM(Large Language Models:大規模言語モデル)の開発が日進月歩で進められている。応答の正確性やモデルサイズ、マルチモーダルな機能など、特徴は千差万別だ。近年デジタルサービスの提供を強化するリコーも、LLMの研究開発に注力するうちの一社。同社はこれまでに、130憶パラメータや700憶パラメータなど複数のモデルを発表している。
ところで、リコーといえば、やはり複合機をはじめとするOA(Office Automation)機器を中心に、オフィス業務を支援するハードウェアやサービス展開のイメージが強い。そこで今回、リコーが手掛けるLLMについて、開発の背景やリコーならではの強みについて取材した。
「知識創造」を目指すリコーのAI開発を振り返る
リコーはドキュメントの検索性能向上やOCR(Optical Character Recognition / Reader:光学文字認識)の高度化を目的として、1990年代から現在のAI開発につながる研究開発を行っていた。しかし、当時は第2次AIブームも落ち着いたころで、いわゆる「冬の時代」とされる時期だ。
次なる転機は2010年代、ディープラーニングの発明に端を発する第3次AIブーム。このころから、リコーの研究組織においても言語解析や画像解析に本格的に取り組み始めたという。2019年に発表されたBERT(Bidirectional Encoder Representations from Transformers)などの技術により、同社の強みであるドキュメント処理が高度化し始めた。
リコーのデジタル技術開発センターで所長を務める梅津良昭氏は、「当社の柱となる事業で扱ってきたドキュメントの活用を、AIによって進化させたかった。ドキュメントの作成や検索だけでなく、過去に蓄積したドキュメントを使って新しい企画を生み出すなど、『知識創造』とも呼ぶべき技術を作りたかった」と、当時を振り返った。
生成AIが広く一般的になる前、2020年7月に米OpenAIがGPT-3を発表。リコーも同モデルのベータ版を研究開発に利用していたそうだ。しかし同社が知識創造のために求める日本語性能は満たしていなかった。
そこでリコーは、オープンソースの英語モデルをベースとしながら高い日本語性能を持つLLMを国内で提供するための研究開発を開始したとのことだ。将来的には、顧客対応や資料作成など業務での活用が可能なAIエージェントの構築を目指す。現在は、少しずつ業務で使える機能を追加している段階とのことだ。
梅津氏は「LLMの開発は、2023年の春くらいまでは社内でもメインストリームではなかった。生成AIがなんとなくすごそうというのは少しずつ知られるようになっていたが、本当に自社で開発できるのか、疑問視されていた」と語る。研究チームは試行錯誤の連続だったという。
最も苦労したのは、AIエンジニアリング。特にクラウド上で多量のGPUを稼働させる工程だった。同社の研究チームには大学院などのアカデミアで経験を積んだ人材が多く、クラウド上で高速な学習に最適な環境を構築することに慣れていなかったそうだ。AI学習に適したストレージの選定や効率的な死活監視など、研究ベースの開発から産業化に向けた開発へと改善を繰り返した。