米NVIDIAは10月25日(現地時間)、グローバルのAI開発者に対し「NVIDIA GPU Cloud(NGC) コンテナレジストリー」の提供を開始したと発表した。
NGCは、www.nvidia.com/ngcsignupで無料のNGCアカウントに登録し、最適化済みのNVIDIAイメージをクラウドサービスプロバイダープラットフォーム上で実行、NGCからコンテナを呼び出した上で開発を開始することが可能であり、3ステップでAIコンピューティングを開始できる。なお、先日発表されたAmazon Elastic Compute Cloud(Amazon EC2) P3 インスタンス(NVIDIA Tesla V100 GPU搭載)のユーザーであれば、すぐに利用が可能だという。
NGCアカウントに登録すると、さまざまなディープラーニングフレームワーク、NVIDIAライブラリー、CUDAランタイムバージョンを統合・最適化・コンテナ化したソフトウェアスタックをダウンロードでき、これらのソフトウェアは常に最新の状態に保たれ、クラウドまたはNVIDIA DGXシステム上で動作する。
コンテナ化されたアプリケーション開発用ソフトウェアには、CUDAのほか、NVCaffe、Caffe2、Microsoft Cognitive Toolkit (CNTK)、DIGITS、MXNet、PyTorch、TensorFlow、Theano、Torchなどがあり、広く使用されているGPUアクセラレーションフレームワークの利用を可能としている。
また、NGCコンテナレジストリーは最大限のパフォーマンスが得られるように調整・テスト・認定済みであるため、クラウド上で稼働するNVIDIA GPUで最適なパフォーマンスを得ることができるほか、コンテナで時間を要するソフトウェア統合が不要となり、迅速にディープラーニング開発を開始できるという。
さらに、各ディープラーニングフレームワークは、最新のNVIDIA GPU上で可能な限り高速にトレーニングできるように調整され、ライブラリ、ドライバー、コンテナは同社の技術者により最適化しており、毎月アップデートが提供される。今後、同社では、そのほかのクラウドプラットフォームのサポートも計画している。