「インテリジェントデータインフラストラクチャ」というキーワードを1年前に披露したNetApp(ネットアップ)。同社が9月25日まで米ラスベガスで開催した年次イベント「NetApp INSIGHT 2024」では、その実現に向けて、最新のブロックストレージ、AIでのNVIDIAとの協業など、具体的な製品を発表した。
ブロックストレージを刷新、「ASA A-Series」
製品発表の場となった2日目の基調講演のステージに立ったのは、NetAppの最高製品責任者(CPO)、Harvinder(Harv) Bhela氏だ。
製品全体の考え方として、同社のストレージOS「ONTAP」を中核に統合ストレージ、データの保護などのインテリジェントサービス、ソリューションが載るというアーキテクチャを示した。これにより、あらゆる種類のデータをあらゆる形で、データがどこにあっても活用できるという。
AIの時代だが、データの量は膨れ上がり、分散した場所にある。そして、ランサムウェアなど、データを狙う攻撃からの保護といった課題を組織は抱えている。この状況に対し、NetAppのインテリジェントデータインフラストラクチャにより顧客のトランスフォーメーションを支援できるとの見立てだ。
「ユニファイド・ストレージ、クラウド、インテリジェント・サービスのレイヤー化、ランソムウェア対策の組み込み、そしてAIも組み込む。サイロはない。1つの土台なので、付加価値を提供し続けることができる」(Bhela氏)
NetAppは現在、主力のエンタープライズストレージ、クラウドストレージ、セキュリティ、AIなどの分野で技術開発を進めている。今年のINSIGHTではさまざまな発表があったが、大きなものがエンタープライズストレージとAIだ。
まずは、エンタープライズストレージから見ていこう。ストレージでは、最新のブロックストレージ「ASA A-Series」を発表した。イベント全体で最も大きな発表と言える。
NetAppは、このところブロックストレージに注力しており、ASA A Seriesの前機種は2023年に発表された。エンタープライズストレージの説明をした、NetApp エンタープライズストレージ担当SVP兼ゼネラルマネージャのSandeep Singh氏によると、ASAはVMwareワークロードのモダン化などの用途で導入されており、顧客数は2万を数えるという。
一方で、シンプルさと性能のバランスの両立を求める声があり、最新のASA A-Seriesではシンプル、パワフル、アフォーダブル、と3つの特徴で顧客のニーズに応える。数分での展開、数秒でのプロビジョニングなど設定が容易で、スケールアップだけでなくスケールアウトも可能だ。
Singh氏は「VMwareやデータベースアプリケーションを高速化する。数百万IOPSのスループット、1ミリ秒未満の一貫したレイテンシを実現、市場をリードする」と説く。99.9999%の可用性保証、ランサムウェア復旧保証もある。
価格については「平均して競合より最大50%は抑えた。ONTAPでデータ管理をオフロードすることでVMwareのコストを最大25%抑えることができ、ハイブリッドあるいはディスクベースのブロックストレージをオールフラッシュにモダン化できる」と付け加えた。
エンタープライズストレージでは、セカンダリストレージも拡充し、「FAS70」と「FAS90」を発表した。
AIをデータに近づける
AIでは、AI向けインフラ、AI向けのデータエンジン、AI向けのデータサービスの3つで、NetAppの戦略や新機能を説明した。
Bhela氏は、そのアプローチについて「AIをデータに近づける。これにより目指すのは、“エンタープライズAIの民主化”。NetAppのストレージをAIのデータファウンデーションにすることで、あらゆる企業が簡単にAIを活用できるようになる」と述べている。
詳細を説明した、NetApp プラットフォーム担当SVP兼ゼネラルマネージャのKrish Vitaldevara氏はAI向けのデータエンジンで、1TB/秒のスループットを誇る最新のハイエンドでA90を含む「AFF A-Series」を紹介した。
Amazon S3やpNFS(パラレルネットワークファイルシステム)などの標準プロトコルを利用でき、ベンダーロックインを回避できるという。同製品とONTAPは大規模AIインフラのプラットフォームである「NVIDIA DGX SuperPod」の認定を受けるプロセスに入っている。
このほか、LLM(大規模言語モデル)のトレーニングなど、パフォーマンスを求める用途については「分散ストレージアーキテクチャ」をONTAPに導入する。これにより、ストレージバックエンドの共有が可能になり、ネットワークの利用とフラッシュのスピードを最適化でき「スループットを大幅に改善できる」とのことだ。
AI向けデータエンジンは、その分散ストレージアーキテクチャを土台とするもので、ファイルからメタデータ情報を抽出し、インデックス化し、検索用のクエリインタフェースを使って、クエリを可能にすることでデータセットの管理が効率化される。
ONTAPにより、ポリシーエンジン、変更検出、ベクターエンベディング、ベクターデータベースなどを活用できる。データの変更を自動でキャプチャしたり、統合ビューを作成できるという。
Vitaldevara氏は「AIのワークロードのほとんどがハイブリッドであり、オンプレ環境とクラウド環境を跨いでデータを移動することになる。データエンジンにより、データのエクスポート、管理、コピーなどが不要になる。これができるのはNetAppのみだ」と強調した。
将来のエンタープライズAIを先んじて構築
AI向けのインテリジェントデータサービスでは「Data Explorer」ツールを使ってデータの検索や分類をしたり、動的あるいは静的なデータコレクションの作成などができる。
デモではNVIDIA NEMOと統合し、NVIDIA LLM Playgroundのチャットインタフェースを使って、ヘルスケアのデータを容易に操作した。
RAG(Retrieval-Augmented Generation:検索拡張生成)を使って自社のデータコレクションに接続し「肺炎患者で糖尿病を併発している患者について医師のメモを要約して」とプロンプトを入れると、メモが表示された。データが追加されると、問い合わせの結果にも反映された。
ポリシーも実行される。今度は同じデータに対して、患者の名前を問い合わせたところ、PII(個人識別情報)のポリシーに基づき患者名は開示されなかった。
肺炎患者のうち新型コロナの両方を患った患者を問い合わせたところ、新型コロナの患者情報データが入っていないため、「情報なし」と回答した。
その後、新型コロナの患者データを追加すると、AIエンジンが変更を検出し、自動的に新しいエンベディングを作成した。チャットで同じ質問を入力すると、新しいデータを含んだ回答を表示した。
Vitaldevara氏は「データがどこにあっても、AIを持ってくることができる」と話す。さらには、NetAppのAIPod、ONTAP、BlueXPとNVIDIA AI Enterpriseと組み合わせることで、RAGのエンドツーエンドのソリューションを構築でき、自律型エージェント(Agentic AI)アプリの土台になるという。同氏は「われわれは将来のエンタープライズAIを先んじて構築している」と述べていた。