ニュース
» 2019年12月20日 15時04分 公開

東京エレクトロンデバイスが受注開始:「世界最速のAIコンピューター」を引っさげCerebras Systemsが日本上陸 (1/2)

独自開発の巨大ディープラーニング処理チップを搭載したシステムを開発し、米国で話題のCerebras Systemsが、東京エレクトロンデバイス(TED)と販売代理店契約を結び、日本市場への進出を発表した。

[三木泉,ITmedia]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 独自開発の巨大ディープラーニング処理チップを搭載したシステムを発表し、米国で話題のCerebras Systemsが、東京エレクトロンデバイス(TED)と販売代理店契約を結び、日本市場への進出を発表した。

Cerebrasのプロダクトマネジメントディレクター、アンディ・ホック氏が掲げているのが「Cerebras Wafer Scale Engine(WSE)」

 「Cerebras Wafer Scale Engine(WSE)」と呼ばれるこのチップは21.5mm四方。円形ではなく正方形だが、シリコンウエハー1枚に、4万のコア(1.2兆のトランジスタ)で構成される単一のチップを書き込んでいる。Cerebrasでは2019年11月、このチップを搭載した15Uサイズのシステム「Cerebras CS-1」を、同社初の製品として米国で発表した。

 TEDは2017年からCerebrasにアプローチし、水面下で国内顧客に紹介してきたという。製品出荷の目途がついたことで、正式に国内代理店契約を締結、2019年12月19日に受注を開始した。

 国内での価格は個別見積もりだが、「数億円台の前半」(TEDのCN BU製品担当役員、上善良直氏)という。TEDでは、「NVIDIA DGX-2」(「NVIDIA Tesla V100」を16基搭載、価格は5550万円から)を複数導入しているユーザー組織などに、CS-1の採用を働きかけていきたいという。

 Cerebrasは製品説明会で、WSEと「最大のGPU」のスペック比較表を示した。この「最大のGPU」について、同社は製品名を明らかにしていないが、数値はTesla V100のものと同一だ。

Cerebrasが示したWSEと「最大のGPU」のスペック比較表

 この比較表からは分からないが、WSEはニューラルネットワークでは典型的に見られる、スパースな(ゼロの多い)ワークロードに最適化したコアを搭載しているという。

 「ディープラーニングのデータは、時に90%以上をゼロが占める。GPUではゼロ同士も積算するため、演算リソースを浪費してしまう。一方WSEでは、ゼロをフィルタリングし、積算しないようになっている」と、Cerebras CTOのゲーリー・ローターバック(Gary Lauterbach)氏は説明した。

 また、Cerebrasプロダクトマネジメントディレクター、アンディ・ホック(Andy Hok)氏は、学習時間の短縮につながる他の要因として、単一のチップに多数のコアを搭載し、コア相互間で100Pbpsのメッシュ通信帯域幅を実現した点、そしてモデルの全パラメーターおよび都度処理するデータのキャッシュ用に16GBという大容量のメモリを搭載し、9PBpsのメモリ帯域幅を与え、1サイクルでアクセスできるようにしている点を指摘した。大規模な学習では特に、通信やデータアクセスがボトルネックになることを回避できるという。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

編集部からのお知らせ

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。