ニュース
» 2018年12月11日 08時00分 公開

Tesla V100 8個、GPUメモリ256GBでネットワーク帯域幅も最大100Gbps:分散機械学習やHPCアプリに最適化、AWSが高性能GPUインスタンス「p3dn.24xlarge」を正式リリース

Amazon Web Services(AWS)は、「Amazon EC2」の「P3」インスタンスファミリーに新たに追加した「p3dn.24xlarge」インスタンスの正式提供を開始した。

[@IT]

この記事は会員限定です。会員登録すると全てご覧いただけます。

Amazon EC2 P3(出典:Amazon Web Services)

 Amazon Web Services(AWS)は2018年12月7日(米国時間)、「Amazon Elastic Compute Cloud」(Amazon EC2)の「P3」インスタンスファミリーに追加した「p3dn.24xlarge」インスタンスの正式提供を開始したと発表した。

 Amazon EC2 P3インスタンスは、最新世代GPU(グラフィックスプロセッシングユニット)「NVIDIA Tesla V100 GPU」を最大8個搭載しており、機械学習(ML)やハイパフォーマンスコンピューティング(HPC)アプリケーションの強化に使用されている。p3dn.24xlargeは、P3ファミリーの最上位インスタンスであり、分散MLやHPCアプリケーションに最適化されている。構成は下記のようになっている。

  • 最大100Gbpsのネットワークスループット
  • 96個のカスタムIntel Xeonスケーラブル・プロセッサー(Skylake)vCPU
  • 8個のNVIDIA V100 Tensor Core GPU(それぞれ32GBメモリ)
  • 300GbpsのGPUインターコネクト「NVLINK」
  • 1.8TBのローカルインスタンスストレージ(NVMeベースSSD)

 AWSは、「p3dn.24xlargeは、従来のP3インスタンスと比べてネットワーク性能が高く、GPUメモリも2倍に増強され、高速ローカルインスタンスストレージも備える。このインスタンスを使用することで、開発者はシングルインスタンスのパフォーマンスを最適化できるだけでなく、ジョブを多数のインスタンス(16、32、64インスタンスなど)にスケールアウトして、MLモデルのトレーニングや、HPCシミュレーションにかかる時間を大幅に短縮できる」と説明する。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。