アットマーク・アイティ @IT@IT自分戦略研究所QA@ITイベントカレンダー+ログ
 @IT > 高負荷時は数秒でサーバ増強。仮想スケールアウトの凄さ
 
@IT[FYI] 企画:アットマーク・アイティ 営業企画局
制作:アットマーク・アイティ 編集局
掲載内容有効期限:2004年12月10日

 

 

サーバ増強の“最適解”──「サーバ仮想化」最前線(2)
高負荷時は数秒でサーバ増強。
仮想スケールアウトの凄さ

  HP WLMによる仮想スケールアウトのオーケストレーション

 前回『サーバ仮想化の新発想「仮想スケールアウト」とは』で紹介したパーティショニング技術vParsやpset、PRMでは、いずれも管理者のマニュアル操作によって仮想スケールアウト構成を指定する必要がある。もちろん、これだけでも「物理的なサーバ」に比べれば柔軟性は格段に高いといえるが、例えば昼休みのWebアクセス集中や夜間のバッチ処理など、日々の負荷変動のたびにマニュアル操作で構成変更するのは現実的ではない。そこで威力を発揮するのが、仮想スケールアウト構成のオーケストレーションをつかさどるHP Work Load Manager(WLM)である。

 WLMのユニークな点は、それがサービスレベル目標(SLO)に基づいて動作することだ。WLMでは、アプリケーションのレスポンス時間やスループットなどの「サービスレベル」をリアルタイムに計測する。そして、負荷の変動に応じて一定のサービスレベルを維持するため、PRMにプロセッサ・リソースの割り当て変更を指示するという役割を担うのである。

 図1は、WLMの動作メカニズムを図示したものだ。

図1 WLMの動作メカニズム

 図1が示すように、WLMでは、Data Collectorと呼ばれるコンポーネントを通じて、アプリケーションのサービスレベルをリアルタイムに計測する。具体的には、以下の種類のData Collectorが用意されている。

Data Collector
およびツールキットの種類
サービスレベル
取得の対象
Glance HP-UXのリソースモニタツールGlanceの計測結果
Apache TK Apache Webサーバ
ODBTK Oracleデータベース
SASTK SASソフトウェア
SNMPTK SNMP対応デバイス/ソフトウェア
WebLogicTK WebLogicアプリケーション・サーバ
ライブラリAPI 任意のアプリケーション
EMS Monitor HP EMS(イベント管理ソフトウェア)
標準出力 シェルスクリプトやPerlなどによる標準出力
表 WLMのData Collectorの種類

 このようにWLMでは、ほぼあらゆる種類のアプリケーションのサービスレベルを、Data Collectorにて計測することができる。これらのデータを受け取ったWLMのControllerは、あらかじめ用意されたSLO設定と比較し、個々のアプリケーション・グループが必要とするプロセッサ・リソースを算出する。

 WLMのSLO設定では、アプリケーション・グループごとに、それぞれの優先度やプロセッサ使用権を定義できる。加えて、SLO設定を適用する期間や時間帯、プロセスの状態といった条件指定が可能だ。例えば、「毎月20〜25日の間だけ月末処理用アプリケーションにリソースを確保する」「バックアップ処理プロセスの起動中のみリソースを確保する」「HAクラスタのフェイルオーバー時のみリソースを確保する」といった使い方ができる。

 Controllerからのリクエストは、WLMのArbiterに集約される。Arbiterは、各グループに割り当てるプロセッサ・リソース配分を決定し、それに基づいてPRMの設定をリアルタイムに調節する。また、PRMだけでは負荷上昇に対応しきれない状況では、vParの構成変更によって対処する仕組みになっている。すなわち、各vParのWLMが互いに連携し、vPar間でリアルタイムにプロセッサを融通し合うのだ。これにより、サーバの動作中にあたかもプロセッサを挿したり抜いたりするような運用が、現実に可能になるのである。

WLMによるリソース管理の例

 では、WLMによるリアルタイムのリソース管理とは実際にどのようなものなのか、具体例を紹介しよう。ここでは、FinanceとSales、Bachという3つのアプリケーション・グループを想定し、それぞれに一定のSLO目標を設定した場合のWLMの動作を見てみたい。

図2 Financeグループの負荷とレスポンス

 図2は、Financeグループの負荷とレスポンスの推移を表したグラフだ。同図において、赤色はFinaceグループの負荷、水色はSLO目標、そして黄色はレスポンス時間を表している。図2を見ると、負荷の急激に上昇した時点で、レスポンスがSLO目標を一時的にオーバーしているものの、やがてSLO目標を満たす状態に落ち着いているのが分かる。ここで、プロセッサ・リソースの割り当てがどのように変化しているのかに注目しよう。

図3 プロセッサ割り当ての変化

 図3において、Financeグループに割り当てられたプロセッサ・リソースの大きさは黄色のグラフで示されている。このように、FinanceグループのSLO目標をオーバーした直後から段階的に割り当てが大きくなり、やがて一定のレベルに収束する。

National Semiconductorの事例

 以上のような仮想スケールアウトは、すでに国内外で導入され始めている。そうした仮想スケールアウトの導入事例の1つとして、ここでは米国National Semiconductor(以下、NS)のケースを紹介したい。

 NSでは、5台のSAPサーバについて、それぞれを物理的に独立したマシンで運用するスケールアウト構成を採用していた。しかし同社では、あるサーバが過負荷の状態となる場合でもほかのサーバは空き状態のままというアンバランスさに悩まされていた。また、SAPの機能拡張にともないサーバの負荷が上昇した際にも、柔軟な負荷分散が行えない状態であった。

 こうした状況で同社が選んだのは、5台のサーバを2台のHP rp8400サーバにリプレースするというサーバ統合である。2台のHP rp8400サーバでは、それぞれに3つのvParsを設定し、合計で6つのSAPサーバとして運用する構成とした。うち2つはプロダクション用で、残る4つはテスト用である。ここでWLMを導入し、プロダクション用SAPサーバのプロセッサ利用率が80%を超えた場合、テスト用SAPサーバのプロセッサを自動的に借用する設定とした。

 この仮想スケールアウト構成により、NSでは、5台のサーバを運用管理するコストを削減することができた。またプロセッサ・リソースをvPars間で共有することで、負荷の不均衡の悩みを解消することができたという。

  仮想スケールアウトの今後

 日本HPは今年9月、これらの仮想化技術のさらなる機能強化プランを明らかにした。ここではそのいくつかを紹介し、仮想スケールアウトが今後どのような方向に進化しているのかを概観したい。

マルチOS環境での大規模ワークロード管理に対応するgWLM

 今回の発表における目玉の1つが、大規模ワークロード管理に対応したGlobal Workload Manager(gWLM)である。2004年末にトライアル版の提供が予定されている。gWLMは、WLMと同じくvParsやpset、PRMをリアルタイムに制御し、一定のサービスレベルを達成する。WLMとの大きな違いは、gWLMは複数のサーバからなる大規模なワークロード管理のためのソリューションである点だ。そのために掲げられた目標は、「ソフトウェアのインストール後30分以内にvParsベースの仮想化環境を構成できること。」つまり、大規模でありながら管理の容易さに的を絞ったソリューションといえる。またLinuxプラットフォームも管理可能な点が特徴だ。

図4 gWLMの管理画面

セキュアOSでリソース・パーティションを強化

 今回の発表では、HP-UXのセキュリティ強化機能も公表されている。2005年上期にリリース予定のSecure Resource Partition(以下、SRP)がそれだ。SRPは、これまでHP Virtual VaultのようなTrusted OS(セキュアOS)で提供されてきた厳格なセキュリティ保護機能を、標準のHP-UXで簡単かつ手軽に利用可能にする技術だ。

 SRPでは、HP-UXのプロセスとファイルをセキュリティ的に分割する「コンパートメント」という概念が導入される。例えば、あるコンパートメントを利用するHP-UXユーザは、一定のアクセス権が与えられない限り、ほかのコンパートメント内のプロセスやファイルがまったく見えなくなる。それぞれのコンパートメントがあたかも別々のOSインスタンスであるかのような使用感だ。こうした徹底した隔離により、たとえ1つのコンパートメントがクラッキングを受けたとしても、それがOS全体に広がるのを防げる仕組みだ。

サブCPU単位の論理パーティションを実現するIVM

 またvParsと同じく論理パーティションを実現する技術として、2005年後半のリリースに向けて開発が進められているのがIntegrity Virtual Machines(IVM)である。このIVMはvParsにはない「サブCPU単位のパーティショニング」「マルチOSをサポート」「I/Oを共有」といった特徴を備える。

単一プロセッサを複数OSパーティションで利用可能な「sub-CPUパーティション」
各パーティションにプロセッサ・リソースを5%単位で動的に再配分
各パーティションによるI/Oの共有
メモリの仮想化
図5 sub-CPUパーティションを実現するIntegrity Virtual Machine(IVM)

 現状のvParsでは、1つのCPUに複数の論理パーティションを設定することができない。これに対し、IVMではCPU利用率の5%が最小分割単位となり、1つのCPU上に20の論理パーティションを設定できるようになる。よって1台のIntegrityサーバで数十ものOSを並行して運用することさえ可能だ。またIVMではゲストOSとしてHP-UXに加えてLinuxをサポートする予定だ。

 以上、サーバ仮想化による仮想スケールアウトに注目し、それを支えるパーティショニング技術のメカニズムを解説した。もちろん、通常のスケールアウトにするか仮想スケールアウトとするかは、導入時のシステム構成・コスト、運用コスト、将来的なシステム構成・コストに留意して選択する必要がある。仮想スケールアウトがさらに浸透すれば、ITエンジニアはやがて「形のないサーバ」だけを扱うようになり、データセンターに出向く機会は皆無となるかもしれない。

2/2  

index
サーバ増強の“最適解”──「サーバ仮想化」最前線
  Page 1
サーバ仮想化の新発想「仮想スケールアウト」とは
Page 2
高負荷時は数秒でサーバ増強。仮想スケールアウトの凄さ

 
本記事は、日本ヒューレッド・パッカードのHP-UX Developer Edgeに掲載された記事を許諾を得て、再構成したものです。詳しくは、HP-UX Developer Edgeの以下の記事をご参照ください。
(要登録、登録無料)

『「サーバ仮想化によるスケールアウト」の新潮流・後編』
『HP-UX 11i v2機能強化で何が変わるか』

関連リンク
HP-UX Developer Edge(開発者向けサイト)
HP-UXサイト
HP-UX Java環境
HP Integrity Web
HP Advantageシリーズ BEAバンドル

@IT News/記事
IT管理者のための仮想化技術入門(System Insider)
HPの掲げるIT基盤「Adaptive Infrastructure」とは?(System Insider)
実行スピードに挑戦するJavaアーキテクチャの変遷をたどる(Java Solution)
HP、サーバ仮想化技術のマルチOS化を含む強化計画(@IT News)
ユーティリティ化に見るHPがユニークな点(@IT News)
メインフレームを駆逐せよ! HPのオープン戦略(@IT News)
SolarisエンジニアをHP-UX陣営に取り込むHPの秘策(@IT News)
日本HPと日本BEA、二度目の握手を交わす(@IT News)


</comment> <tr> <td bgcolor="#EEEEEE"><font size="2"><a href="javascript:KeepIt();"> <img src="/club/keepoint/images/ico_kpt.gif" alt="kee&lt;p&gt;oint保存" border="0" align="absmiddle" width="24" height="18">kee&lt;p&gt;ointで保存</a></font></td> </tr> <comment>

 
@ITトップ@IT Special インデックス会議室利用規約プライバシーポリシーサイトマップ