用途についてはこれからだが、その可能性は感じることができる。Bresniker氏によると、同じハードウェアと同じOSという環境で「Apache Spark」を動かしてみたところ、The Machineを利用することで15倍高速になったという。類似検索については、それまですべての画像に対して比較する計算を行っていたのに対し、豊富なメモリを活用して画像をメモリに保持し、メモリのルックアップを行うというアプローチを変えた。これにより、同じ計算リソースで40倍高速になったとのことだ。
新たなアルゴリズムの例としては、セキュリティログの分析を紹介した。PC、モバイルなど社内ネットワークを利用する端末がウイルスに感染していないかをグラフ理論を用いて分析するというもので、100倍も高速になったという。
大規模システムから組み込みまで
メモリ主導コンピューティングの構想がきちんと動くことが実証された後、HPEは業界全体の取り組みに拡大させている。
2016年のDiscoverイベントではThe Machineのコンポーネントをローレベルのエミュレーション、シミュレーションなど、オープンソースして公開しているという。「これまではソフトウェアを完成されてオープンソースにしていた。今回は早期に、そして継続的にコミュニティに公開する」(Bresniker氏)。
ハードウェア側では2016年10月、「Gen-Z Consortium」として、IBM、Dell EMC、Huaweiらとコンソーシアムを立ち上げた。「ソフトウェア、ハードウェア、コンポーネントベンダーらが共同で、オープンな業界標準のメモリファブリックの仕様を策定している。これにより、相互運用性が保たれる」とBresniker氏は狙いを説明する。参加企業は35社を上回る数に達している。
今年のHPE Discover会期中には、ユーザーグループも立ち上げた。参加企業とメモリ主導コンピューティングのアプリケーションなどの議論を進めていくという。
では、The Machine事態の進化はどうか。160TBを実現した後、「エクサスケール」を目指す。2019・2020年にエクサスケールシステムのプロトタイプを作成、Gen Zでは仕様が完成してシリコンが登場、2020年以降は、IoTのエッジ、組み込みなどの小型向けの開発が進むと見る。
最後にBresniker氏は、ラボチームがSuperdome Xでシステムを構築していることに触れながら、「すぐにメモリ主導コンピューティングを試すことができる」とした。