米Databricks(データブリックス)は3月14日(現地時間)、生成AIソリューションのプロバイダーである仏Mistral AIによるシリーズA資金調達ラウンドへの出資参画と、同社との提携を発表した。今回の提携により両社はMistral AIのオープンモデルをデータブリックスのデータ・インテリジェンス・プラットフォームにネイティブ統合し、提供を開始する。

話題のMistral AIに出資

Mistral AIのオープンモデル「Mistral 7B」と「Mixtral 8x7B」がデータブリックスのプラットフォームに統合される。Mistral 7Bは、8kのコンテキスト長で学習されたトランスフォーマーモデル。70億パラメータという比較的小さなサイズに加えグループ化されたクエリアテンション(GQA)とスライディングウィンドウアテンション(SWA)を活用したモデルアーキテクチャにより、効率的にサービスを提供することができるという。

Mixtral 8x7Bは、32kのコンテキスト長をサポートし、英語・フランス語・イタリア語・ドイツ語・スペイン語を扱うことができる専門家のスパース混合エキスパート(SMoE)モデル。大半のベンチマークで「Llama 2 70B」を上回り、学習済みパラメータ合計450億個のうち、推論時に120億のパラメータのみをアクティブにするSMoEアーキテクチャとなる。

データ、分析、AIのためのオープンなマーケットプレイス「Databricks Marketplace」を通じて、Mistral AIのモデルを学べるとともに「Mosaic AI Model Serving」を使ったモデルのデプロイ、「Spark」を使ったバッチ推論、「AI Functions」を使ったSQLでのモデル推論などを可能としている。

Mosaic AIの「Foundation Model API」はモデルサービングの機能で、デプロイメントやエンドポイントを作成・維持することなく、Mixtral 8x7B(およびそのほかのモデル)にアクセスし、クエリを実行できるという。

これにより、他の基盤モデルで使用されている同じAPIを使用し、Mistralのモデルにアクセスすることを可能とし、クラウドやプロバイダー間であらゆる基盤をデプロイ・管理・クエリ・監視することができ、大規模な言語モデルの実験や本番稼動が可能になるとしている。

また、Mosaic AIは、ユーザー独自のカスタムモデルを作成するための簡単かつ費用対効果の高い方法を提供し、独自のデータセットを活用してMistral AIのモデルや他の基盤モデルを適応させることができるとのことだ。