NVIDIA、クラウドベースのAI/ディープラーニング開発者向けコンテナレジストリサービスを提供開始Amazon EC2の「P3」インスタンスでも利用可能

NVIDIAは、クラウドベースプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを提供開始した。テストおよび最適化済みのコンテナ化されたディープラーニングソフトウェアスタックにすぐにアクセスできる。

» 2017年10月30日 12時30分 公開
[@IT]

 NVIDIAは2017年10月25日(米国時間)、クラウドベースのプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを全世界のAI/ディープラーニング開発者向けに提供開始したと発表した。

NVIDIA GPU Cloud」のページ

 開発者は、NGCに登録してアカウントを作成すれば、幅広いディープラーニングフレームワーク、NVIDIAのライブラリ、CUDAのランタイム版を統合、最適化した、コンテナ化されたソフトウェアスタックを無料でダウンロードし、使用できる。これらは、最新の状態に保たれており、クラウドや「NVIDIA DGX」システムでシームレスに動作する。

 このソフトウェアスタックは、リリースされたばかりのAmazon Elastic Compute Cloud(Amazon EC2)の「P3」インスタンスで利用することもできる。P3インスタンスは、「NVIDIA Tesla V100」GPUを最大8個搭載する。NVIDIAは近いうちに他のクラウドプラットフォームもサポートする計画だ。

 NVIDIAは、NGCコンテナレジストリの主なメリットとして以下を挙げている。

  • 広く使われているGPUアクセラレーテッドフレームワークにすぐにアクセスできる

 NGCコンテナレジストリからダウンロードできるコンテナ化されたソフトウェアには、NVCaffe、Caffe2、Microsoft Cognitive Toolkit(CNTK)、DIGITS、MXNet、PyTorch、TensorFlow、Theano、Torchに加え、アプリケーション開発用にCUDAが含まれている。

  • NVIDIAがチューニング、テスト、動作確認済み

 NGCコンテナレジストリで提供されるソフトウェアは、高いパフォーマンスを発揮するようにNVIDIAがチューニング、テスト、動作確認を行っている。

  • 統合済み

 ユーザーは、使いやすいコンテナにより、ディープラーニングジョブをすぐに開始でき、面倒で時間がかかるソフトウェア統合を自分で行わずに済む。

  • 最新

 NGCコンテナレジストリで利用できるコンテナは、NVIDIAが継続的に開発を行っていることによる恩恵を受ける。各ディープラーニングフレームワークは、最新のNVIDIA GPU上で最大限高速に訓練を行えるようチューニングされている。また、NVIDIAのエンジニアはライブラリ、ドライバ、コンテナを継続的に最適化し、更新プログラムを毎月提供する。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。