NVIDIA TITANユーザーがAI開発に「NVIDIA GPU Cloud(NGC)」を利用可能にNGCでアクセスできるAIやHPC用ソフトウェアも増加

NVIDIAは、GPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」で新たに「NVIDIA TITAN GPU」をサポートし、デスクトップGPUを使用する数十万人のAI研究者がNGCを利用できるようにした。

» 2017年12月06日 11時00分 公開
[@IT]

 NVIDIAは2017年12月4日(米国時間)、「NVIDIA TITAN」を使用するAI(人工知能)研究者が、同社のGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」を利用できるようになったと発表した。また、NGCコンテナレジストリで利用可能なソフトウェアの追加など、NGCのさまざまな機能拡張を発表した。NVIDIAはこれまでより幅広い強力なツールセットを研究者に提供し、AIやハイパフォーマンスコンピューティング(HPC)の研究開発を後押しする狙いだ。

 NGCがサポートしているコンピューティングプラットフォームを使用する顧客は、NGCに登録して無料アカウントを作成し、GPUに最適化されたディープラーニングおよびHPC用の包括的なソフトウェアおよびツールにフルアクセスできる。

 NGCが新たに「NVIDIA Pascal」アーキテクチャGPUのNVIDIA TITANをサポートしたことで、同GPUを使用する顧客は、NGCで提供されるソフトウェアおよびツールを全て利用できるようになった。サポート対象のコンピューティングプラットフォームにはNVIDIA DGX-1」「NVIDIA DGX Station」、Amazon EC2の「NVIDIA Volta」アーキテクチャGPU搭載インスタンスなどが含まれる。

NVIDIA TITAN X(出典:NVIDIA)

 またNGCのコンテナレジストリでは、利用可能なソフトウェアが急速に増えており、その中には、ディープラーニングフレームワーク「TensorFlow」「PyTorch」、サードパーティーが管理するHPCアプリケーション、NVIDIAのHPC可視化ツール、NVIDIAのプログラマブル推論アクセラレータ「NVIDIA TensorRT 3.0」(以下、TensorRT)などが含まれる。

 さらにNVIDIAは今回、NGCの機能拡張として、TensorRTにおける「Open Neural Network Exchange(ONNX)」のサポートや、ディープラーニングフレームワーク「Apache MXNet 1.0」のサポート、BaiduのAIフレームワーク「PaddlePaddle」の提供開始を発表した。

 ONNXはMicrosoftとFacebookが共同で開発した、ディープラーニングモデルのオープンフォーマット。開発者はこのフォーマットを使って、異なるフレームワーク間でモデルを交換できる。NVIDIAは、ONNXモデルをTensorRT推論エンジンにデプロイするためのコンバーターを作成した。これにより、アプリケーション開発者は、低レイテンシで高いスループットのモデルを容易にTensorRTにデプロイできる。

 こうした機能拡張によってNVIDIAは、NGCを「研究から、アプリケーション開発、訓練、デプロイまで、AIにおけるコンピューティングのニーズを総合的にサポートするソフトウェアのワンストップショップ」とすることを目指す考えだ。

「NVIDIA GPU Cloud」のページ

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。