連載
» 2015年12月24日 05時00分 UPDATE

頭脳放談:第187回 1位でも2位でもいいじゃない 〜Intelが考えるHPCの標準化〜

ビッグデータや機械学習の普及でHPCの適用分野が広がっている。でも分野別に細かいセグメントに分かれており、プラットフォームの標準化は行われていない。より幅広く普及するには、標準プラットフォームによる低価格化などが必要。そこでIntelが標準プラットフォーム「Intel Scalable System Framework」を提唱した。

[Massa POP Izumida,著]
頭脳放談
System Insider

 一般の人々に知られている用語と、業界で使われる用語が違うというケースは多い。例えば、「スパコン」という言葉だ。2009年の政府(行政刷新会議)の事業仕分けの際の蓮舫議員の「2位じゃダメなんですか」で一時開発が凍結された「京」のおかげか、「スパコン」は一般の人々にもよく知られた言葉となった。だがコンピューター業界では、いわゆる「スパコン」も含まれる高性能のコンピューター全般とその利用方法などを、ハイパフォーマンスなコンピューティングということで、「HPC(High-Performance Computing)」と呼び習わしている。

 ただ、その意味するところは人によりけりで、かなり広いように思われる。「京」のような大きな建物を占有して、何百億円あるいは何千億円といった単位で費用が掛かるものから、数百万円程度で手に入るデスクトップ「スパコン」機までHPCと呼ばれることがある。いくら高性能でもWebサービスのホストとかファイルサーバーのようなマシンは、HPCには入れてもらえないようだ。

 HPCは「計算能力」が高い、つまりは膨大な計算を行う必要のあるアプリケーションを実行するマシンが対象である。いくら高性能でも多くの人に少しずつサービスを提供するようなマシンは、HPCとは呼ばれない。あるアプリケーションを実行しているときには、他の仕事は表立ってしないことが普通だから、図体は大きくても、ある意味使う人は限られている。この辺りは、スマホと似通ってもいる。

 そんなHPCがひそかに身近なものになりつつある。かつて一般の人がスパコンの計算結果を目にするのは、天気予報の予想図くらいではなかっただろうか。大量の科学技術計算を伴う物理や気象のシミュレーションは、HPCの本来的アプリケーションである。

 ただし、計算しても数字で表示するのでは人間の理解は得られない。そういう計算は、絵にして見せるというのが常道である。よって、数字のままでは何だか分からない情報を人に分かるように表示(ビジュアライゼーション)するというのも、HPCの重要なアプリケーションである。だいたい天気予報表示も最近長足の進歩を遂げていることは、お気付きであろう。これもHPCの発展の効用の一つかもしれない。医療分野などでのビジュアライゼーションの発展も著しいし、各種の設計などでもビジュアライゼーションはキーとなる技術である。

 まぁ天気予報以外は、今でもHPCの計算結果を「目」にすることはあまり多くないかもしれない。それに数値計算だけではプロフェッショナル的ではあるが、あまりゼニになるアプリケーションとも言えない。ところが、計算結果を目にはしなくとも、すでに「一般の人」自体がデータとしてHPCによる計算の対象となってしまっているようだ。そして、その行動がHPCの計算結果に影響を受けるような状態になってきているといえる。

 ビッグデータのお陰というべきか、暗躍というべきかである。データの収集コストが劇的に下がるに連れて、そして膨大なデータが集まるように連れて、それらを解析することがビジネスに結び付けられるようになったからだ。「お金もうけ」が絡むと世の中動きは速い。大規模なチェーン店や高度な金融工学を駆使するような向きだけではなく、中小規模の企業でも「お金もうけ」に活用するための取り組みを始めているところが出てきている。

 そこでは得られたデータの解析方法自体に新たな手法が導入されている。人工知能や機械学習の分野である。機械学習によって「認識」されたデータからは、人間が気付かない事実や法則性が見つかることがある。それが「ビジネスを大きく進歩させる」「コストを削減する」と喧伝されているわけだ。

 また、今まではベテランの経験と勘に頼っていたものを機械で置き換えて合理化しようという意図も見え隠れする。実際には機械学習にかけるまでのデータの整備や、学習させた結果の現実への適用の方法など、問題は山積みのはずだが、それでも着々と進んでいる。その上、その手の機械学習の出力は、天気予報と一緒で賞味期限があることが多い。

 最新のデータで出した予測は、近い将来ならばかなり的中するが、予測期間が遠くなるほど外れるようになる。つまり常にデータ収集を続けて、計算し、予報を出し、というプロセスを定常的に回していかないとダメなのだ。不変の物理法則のようなものが見つかるわけではないのである。そして一般に機械学習での計算量は膨大、つまりはHPCへの需要が高まるわけである。

 このHPCへの需要の高まりに答える形で、プロセッサーメーカーも取り組みを強化している。まずは誰に聞いても先行していると言うのは、GPUを擁するNVIDIAではないだろうか。GPUは数千といったコアを並列に動作させ、同じような処理ならば抜群の速さで行うことができる。デスクトップの「スパコン的マシン」に向けたGPGPU(General-Purpose computation on GPU:GPUを利用した汎用目的の計算)のシリーズもあり、ゲーマー向けの高性能グラフィックス用GPUと思われているシリーズでも、実は人工知能、機械学習などに向けた開発キットが整備されている。そして、2016年にも出荷されるという新アーキテクチャのGPUでは、一部の人工知能向けの性能が10倍にもなるのだそうだ。

 これに対してIntelも負けてはいない。まだ詳細は分からないのだが、ここにきて新たなプラットフォーム「Intel Scalable System Framework」というものを打ち出してきた。高性能な処理には単に高速なプロセッサーだけでは駄目だから、プロセッサー、メモリ、ストレージ、インターコネクト、ソフトウエアの全階層を統一した考え方で組み合わせられるようにしようというのだ。

 どうもIntelの説明からは、HPC市場は成長しているとは言え、分野別に細かいセグメントに分かれてしまっているので、巨鯨のIntelが泳ぐには狭すぎる、小さな市場に分かれている仕切りを取り除いて、全通させて大きな市場にまとめて成長を加速させたい、といような意図が見え隠れする。そしてその中核に「Xeon Phiシリーズ」の新世代を据えてきたのだ。

 Xeon Phiは、Intelのメニーコアとして注目を集めたが、アクセラレーターとして構成するしかない現世代を使いこなすのはそう簡単ではないようだ。それが、今度登場する新世代からは普通のマルチコアプロセッサーのようにだいぶ使いやすくなるようである。

 メモリも同一パッケージ上にかなりの量が搭載されるので、お値段はともかく、ハードウエア的な扱いやすさ、ソフトウエア的な性能からも期待できるだろう。依然、コア数という観点からはGPUベースのマシンよりも少量にならざるを得ないはずだが、1個1個のコアを比べるならば、GPUのコアよりもXeon Phiのコアの方がずっと強力だろう。やはりアクセラレータ的な動作となるGPUは向いている仕事は速いが、そうでない仕事も多く、その場合にはがくんと性能が落ちる。

 新世代のXeon PhiはCPUらしく動作してGPUの向かない仕事も処理できそうであるし、その強力な演算能力を生かせば並列性を生かした処理にも向きそうである。これをうまく活用できるソフトウエア環境も準備されるのだろう。Intelの目論見に対応してどれくらいの規模の市場がどのくらいの時期に出現してきそうなのか、2016年の今ごろには見通しが立っていることだろう。

筆者紹介

Massa POP Izumida

日本では数少ないx86プロセッサーのアーキテクト。某米国半導体メーカーで8bitと16bitの、日本のベンチャー企業でx86互換プロセッサーの設計に従事する。その後、出版社の半導体事業部などを経て、現在は某半導体メーカーでヘテロジニアス マルチコアプロセッサーを中心とした開発を行っている。


Copyright© 1999-2017 Digital Advantage Corp. All Rights Reserved.

@IT Special

- PR -

TechTargetジャパン

この記事に関連するホワイトペーパー

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。