Ethernetとの互換性が重視されつつあるInfiniBand
ネットワークの進化は、基本的には高速化や広帯域を目指すものだが、CPUの高速化と同様に、ネットワークの高速化についてもそろそろ物理的な限界に突き当たりつつあるのではないか、という懸念は出てきている。とはいえ、進化のペースは鈍化しているものの、まだ高速化の取り組みが完全に放棄されたわけではない。
LANの世界におけるデファクトスタンダードであるEthernetでは、10GbpsがIAサーバの標準ネットワークインタフェースとなっており、必要に応じて25Gbpsも選択可能、という状況だ。それ以上の速度では、40Gbps、50Gbps、100Gbpsといった規格に基づく製品が市場に投入されており、ロードマップとしては200GbE、400GbEといったさらなる高速化が見えている。
一方、HPCの分野で使われてきたInfiniBandは、現時点で200Gbpsの製品が存在しているが、最近のInfiniBand製品ではEthernetとの互換性が重視されるようになってきているのが特徴だ。例えば、現状でInfiniBandを手がける中核的なベンダーであるMellanoxは、InfiniBandアダプタとEthernetアダプタを統合する動きを見せており、「InfiniBandでもEthernetでも好きなほうを使える」状況を実現している。
これまで特定用途限定で使われてきた感があるInfiniBandだが、Ethernetが高速化されてきていることもあり、今後は開発リソースの分散を避ける意味でもEthernetに集約されていく可能性も考えられる。
ストレージ接続における統合の動き
同様の統合は、ストレージ接続の分野でも見られる。高速大容量のネットワーク接続型ストレージには、従来はFC(ファイバーチャネル)が活用されてきた。標準的には8/16Gbps、最大では32Gbpsという速度を実現できるFCは、レイテンシの低さや安定性を特徴としており、現在でもFCを好むストレージ管理者は多いようだ。しかし、10GbE時代になった今、iSCSI/FCoEを使い、ネットワークをEthernetに一本化する動きが目立ち始めている。
これには、ストレージ側の変化による影響も大きい。従来の専用アプライアンス型のストレージに加えて、スケールアウト型で接続したIAサーバの内蔵ストレージデバイスを仮想化技術によって統合して大容量ネットワーク接続ストレージとして活用するSDS(Software-Defined Storage)が普及し始めたためだ。統合インフラとして普及し始めているHCI(Hyper-Converged Infrastructure)も、ストレージとしてSDSを使っている。
これらは、本質的にはIAサーバであり、ネットワークもEthernetを標準的に利用することから、ストレージ専用のネットワークを用意するのではなく、Ethernetに一元化する、という流れが顕著になってきている。
オールフラッシュにおける高速化の動き
同様のトレンドとして、オールフラッシュ・ストレージではNVMe-oFのサポートが始まっている。これは、従来のディスクインタフェースを流用することで、パフォーマンス面で制約を受けていたSSDに代わり、PCI-Expressバスにフラッシュ・ストレージを直結して、さらなる高速化を目指したNVMeをネットワーク接続に拡張するという動きだ。
PCI-Expressバスの性能を制約しないようにという意図から、高速な50GbEをインタフェースとして採用するオールフラッシュ・ストレージ製品の市場投入が始まっており、新たなストレージ接続ネットワークの標準に育つことも期待される。
高速化を実現するための技術に関してはさほどのバリエーションがあるわけではなく、高速化を追求する過程でどの規格の中身も似たものになっていく、という傾向はある。
同様の動きは無線ネットワークでも見られ、通信事業者が開発に取り組む「5G」と、IT業界で推進するIEEE802.11axが同じような技術を使って高速化を実現しているという例もある。5GとWi-Fiの一本化はまだ具体的な道筋が見えていないようだが、いずれ統合されていく形になる可能性は十分に考えられるだろう。