SnowflakeとMistral AIは3月5日(米国時間)、両社のグローバルパートナーシップにより、Mistral AIの言語モデル「Mistral Large」をデータクラウド内でSnowflakeユーザーに直接提供開始されると発表した。
複数年にわたるパートナーシップには、Snowflake VenturesによるMistralのシリーズAへの並行投資が含まれている。
SnowflakeユーザーがMistral Largeを利用可能に
Snowflakeユーザーは、Mistral AIのLLM「Mistral Large」を利用できるようになる。「Mistral Large」は、独自の推論能力を備え、コーディングや数学に精通し、フランス語、英語、ドイツ語、スペイン語、イタリア語の5カ国語に対応している。
Snowflakeユーザーは、サイズの割にメモリ要件が低くスループットの高い、低レイテンシーに最適化されたMistral AI初の基盤モデルであるMistral 7Bに加え、ほとんどのベンチマークでOpenAIのGPT3.5を上回る速度と品質を持つMistral AIのオープンソースモデルであるMixtral 8x7Bを利用できる。
Mistral AIのモデルは現在、Snowflake Cortexの一部としてパブリックプレビュー版が利用可能。
Snowflake Cortex LLM機能のパブリックプレビューが開始
Snowflake Cortexは、SnowflakeのフルマネージドLLMおよびベクトル検索サービス。
Snowflake Cortex LLM機能のパブリックプレビューが開始されたことで、Snowflakeユーザーは企業データを基にAIを活用し、幅広いユースケースに対応できるようになった。
特殊機能を使用することで、SQLのスキルがあれば、より小さなLLMを活用して、センチメント分析、翻訳、要約などの特殊タスクにコスト効率良く数秒で対応できるという。
より複雑なユースケースの場合、Python開発者は、Snowflake Cortexで利用できるMistral AIのLLMといった基盤LLMのパワーと、SnowflakeのStreamlit内のチャット要素(近日パブリックプレビュー予定)を組み合わせることで、コンセプトからチャットボットのようなフルスタックのAIアプリまで数分で構築可能とのこと。