さくらインターネットは8月27日、都内で記者説明会を開き、生成AI向けクラウドサービス「高火力」のコンテナシリーズ「高火力 DOK(ドック)」においてβ版の「NVIDIA H100 プラン」の提供を開始したと発表した。
AIモデルを活用した推論などを高速に実施できるプラン
新プランは「NVIDIA H100 Tensor コアGPU」を採用し、既存の「NVIDIA V100プラン」と比べて計算速度とGPUメモリの容量が向上したことから、高精細画像の多数作成やLLM(大規模言語モデル)のファインチューニング、AIモデルを活用した推論などを高速に実施できるプランとなっている。
これらは今年4月に、経済安全保障推進法に基づく特定重要物資である「クラウドプログラム」の供給確保計画に関する経済産業省の認定を受けており、昨年6月にも同認定を受けている。すでに、1回目の認定を受けた石狩データセンターではH100 Tensor コア GPUを約2000基整備する計画が完了し、計算能力2.0EFLOPSを達成。
同社が生成AI向けクラウドサービスに取り組む背景について、さくらインターネット 副社長 執行役員の舘野正明氏は以下のように説明した。
「AIに関する計算資源の安定供給を確保することが非常に重要。スマートフォンやクラウドに関しては、大手の外資ベンダーが市場を寡占化しており、AIに関してそのようなことが起きてしまうことは日本としては避けたい。大手の外資ベンダーは本国でのサービス提供を勇信していることもあり、日本市場に最新のGPUを潤沢に供給してくれるかと言えばそうではない。可能であれば日本に軸足を持っている企業がやるべきではないかと考えた」(舘野氏)
上記に加え、2016年から高性能GPUを用いた「高火力コンピューティング」の提供してきた経験や、膨大な電力を消費するGPUサーバは消費電力量やCO2排出量を抑制して計算基盤の拡張を進めていく必要があり、同社の石狩データセンターが最適だと考え、取り組むに至ったという。
水冷式コンテナ型データセンターの整備も計画
高火力 DOKは、今年6月から提供を開始したコンテナ型GPUクラウドサービスとなり、ユーザーが事前に用意したDockerイメージの実行が可能なため、イメージ内に実行環境をパッケージングすることで、都度の環境構築の手間をかけずにサービスを利用することが可能。また、利用時間に応じた秒探知での課金制のため、コスト削減にもつながるという。8月にはタスク実行処理の自動化などで利用可能なAPIを公開している。
新プランの詳細はGPUメモリが80GB、料金はコンテナ実行開始から終了までの実行期間が課金対象で1秒当たり0.28円。タスクの実行に加え、タスクの状態をコントロールまたはAPI上で確認できるタスクモニタリング、コンテナ内で出力したログ情報をダウンロード可能なログ管理といった機能を備え、プラットフォームはLinux/AMD64となる。
なお、新プランの提供開始に合わせて、既存プランのNVIDIA V100 プランを無償で利用できるキャンペーンを実地。利用料が最長3カ月無償化し、「さくらのクラウド」で利用可能な割引クーポンを計2万円分を提供する。
すでに、同社では今年1月からH100 Tensor コアGPU搭載の物理的なサーバ1台を丸ごと提供するサービスとして「高火力PHY」を提供している。今後、2024年度内には機械学習のスポット利用やAIアプリケーション開発者向けにNVIDIAのGPU搭載の物理サーバ上で複数の仮想サーバを構築して、利用時間に応じた従量課金で提供する「高火力VM版(仮)」のリリースを計画している。
また、総額170億円を投じて石狩データセンターに空冷よりも冷却効率が優れるとされる、水冷式サーバを設置した水冷式コンテナ型データセンターの整備を計画し、2025年11月と2026年11月に2期分の竣工を予定している。これにより、すでに発注している214億円分のGPUサーバを今期中に設置し、収益化を予定。
最後に、舘野氏は「1000億円を投じて、2027年度に計1万基のGPUで合計18.9EFLOPSを目指し、事業を推進している。現状は現行機種であるH 100や『NVIDIA B200 GPU』などに投資しており、その都度、最新世代のGPUへの投資を継続していく。最終的には、われわれのアクションが日本の社会・産業にポジティブなインパクトになるように取り組んでいく」と述べ、説明を結んだ。