検索
ニュース

分散機械学習やHPCアプリに最適化、AWSが高性能GPUインスタンス「p3dn.24xlarge」を正式リリースTesla V100 8個、GPUメモリ256GBでネットワーク帯域幅も最大100Gbps

Amazon Web Services(AWS)は、「Amazon EC2」の「P3」インスタンスファミリーに新たに追加した「p3dn.24xlarge」インスタンスの正式提供を開始した。

Share
Tweet
LINE
Hatena

Amazon EC2 P3(出典:Amazon Web Services)

 Amazon Web Services(AWS)は2018年12月7日(米国時間)、「Amazon Elastic Compute Cloud」(Amazon EC2)の「P3」インスタンスファミリーに追加した「p3dn.24xlarge」インスタンスの正式提供を開始したと発表した。

 Amazon EC2 P3インスタンスは、最新世代GPU(グラフィックスプロセッシングユニット)「NVIDIA Tesla V100 GPU」を最大8個搭載しており、機械学習(ML)やハイパフォーマンスコンピューティング(HPC)アプリケーションの強化に使用されている。p3dn.24xlargeは、P3ファミリーの最上位インスタンスであり、分散MLやHPCアプリケーションに最適化されている。構成は下記のようになっている。

  • 最大100Gbpsのネットワークスループット
  • 96個のカスタムIntel Xeonスケーラブル・プロセッサー(Skylake)vCPU
  • 8個のNVIDIA V100 Tensor Core GPU(それぞれ32GBメモリ)
  • 300GbpsのGPUインターコネクト「NVLINK」
  • 1.8TBのローカルインスタンスストレージ(NVMeベースSSD)

 AWSは、「p3dn.24xlargeは、従来のP3インスタンスと比べてネットワーク性能が高く、GPUメモリも2倍に増強され、高速ローカルインスタンスストレージも備える。このインスタンスを使用することで、開発者はシングルインスタンスのパフォーマンスを最適化できるだけでなく、ジョブを多数のインスタンス(16、32、64インスタンスなど)にスケールアウトして、MLモデルのトレーニングや、HPCシミュレーションにかかる時間を大幅に短縮できる」と説明する。

 またAWSは、100Gbpsのネットワークスループットが、データ転送のボトルネック解消に役立つ他、GPUを最大限に利用して、最高のインスタンスパフォーマンスを提供できるとしている。

 さらに、p3dn.24xlargeでは、GPUメモリが従来のGPU当たり16GBから32GBに倍増していることから、高度で大規模なMLモデルのトレーニングや、大規模データ(画像分類やオブジェクト検出システムのための4k画像など)のバッチ処理を柔軟に行えるという。

 p3dn.24xlargeインスタンスと既存のP3インスタンスの比較は以下の通り。

インスタンスサイズ GPUs - Tesla V100 GPU Peer to Peer GPUメモリ(GB) vCPU メモリ(GB) ネットワーク帯域幅 EBS帯域幅 ローカルインスタンスストレージ
p3.2xlarge 1 該当なし 16 8(Broadwell) 61 最大10Gbps 1.5Gbps 該当なし
p3.8xlarge 4 NVLink 64 32(Broadwell) 244 10Gbps 7Gbps 該当なし
p3.16xlarge 8 NVLink 128 64(Broadwell) 488 25Gbps 14Gbps 該当なし
p3dn.24xlarge 8 NVLink 256 96(Skylake) 768 100Gbps 14Gbps 2 × 900GB NVMe SSD

 p3dn.24xlargeインスタンスは現在、米国東部(バージニア北部)および米国西部(オレゴン)リージョンで、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスとして提供されている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る