ELYZAは12月27日、商用利用可能な130億パラメータの日本語LLM「ELYZA-japanese-Llama-2-13b」を開発して一般公開したことを明らかにした。2023年8月に公開した「ELYZA-japanese-Llama-2-7b」と同様に、米Metaが開発したLLM(Large Language Models:大規模言語モデル)「Llama 2」に対し、日本語による追加事前学習とELYZA独自の事後学習を行っている。
今回公開したモデルはパラメータ数が130億に増加し、事後学習に使用するデータを増強したことで、前モデル「ELYZA-japanese-Llama-2-7b」を上回る性能を実現したという。 同社が公開している日本語ベンチマーク「ELYZA Tasks 100」を用いたブラインドテストでは、既存のオープンな700億パラメータのモデルを上回る結果を示したそうだ。
ライセンスはLlama 2 Community License に準拠しており、Acceptable Use Policyに従う限りにおいて研究および商業目的での利用が可能だとしている。また、同社はチャット形式のデモについてHugging Face hub上で公開。今回のデモでは、vLLMというライブラリを用いて推論の高速化を行っている。