パーソナルAIの開発および実用化を進めるオルツは10月20日、小規模GPUマシンで実用的なパラメータ数が最適化された大規模言語モデル「LHTM-OPT(ラートム・オプト)」を開発したことを発表した。
モデルの開発に際しては、オープンデータの学習だけでなく独自の指示データや対話データのデータセットを作成し、精度を改善したという。その結果、YuzuAIグループが出した日本語LLMを評価するRakudaベンチマークにおいて評価スコア1152を記録した。日本語言語理解ベンチマーク「JGLUE(Japanese General Language Understanding Evaluation)」8タスク平均においても、スコア56.12を記録している。
同社は今後について、モデルをブラッシュアップすることでの性能と汎用性を向上させるとともに、このモデルを基盤として自動質問応答、議事録自動要約、情報抽出、会話理解、予測分析のデータ整理・作成など、多くのアプリケーションを実装する予定だ。