分散仮想データセンターはもう実現できる ― CTCとシスコが検証中の、いま使える技術とは
2012/08/20
2011年3月の震災以来、関東に集中していたデータセンターを別の地域に移して分散させるなど、データセンターの移設案件が増えている。その際、リソースを有効活用し、新規投資が数年後に無駄にならないものにしたい。解決策として、ロケーションの異なるデータセンターをつなぎ、文字どおり1つの巨大なデータセンターとして運用するというコンセプトが、数年前から語られていた。当初は絵空事だったこの分散仮想データセンターは、実現可能な技術が出そろい、具体的な実証の段階に入っている。伊藤忠テクノソリューションズは、システムインテグレータという立場を生かし、分散仮想データセンターの構築に現時点で使える各社製品を組み合わせて検証し、顧客にも紹介し始めている。では、この検証ではどのような製品を、どう組み合わせているのだろうか。
リソース最適化と事業継続の切り札
現在のデータセンターにおける課題を2つ挙げるとすれば、リソースの有効活用とBCP/DRの実現だろう。この2つの解決策となるのが、複数データセンターをアクティブ/アクティブで運用する分散仮想データセンターだ。
BCP/DRについては、ヴイエムウェアでいえばSite Recovery Manager(SRM)を使ったソリューションが現在、活発に提案され、導入されている。これはたしかにメリットのある優れたソリューションだ。ストレージの遠隔複製機能を活用して、本番拠点で稼働している仮想マシンのスナップショットやデータを、バックアップ拠点のストレージに転送しておき、万が一の場合にはバックアップサイト側で、半自動的にシステムとデータを復旧できる。復旧手順も簡単で、従来の災害復旧の仕組みに比べ、適用範囲が広く、コスト効率が高く、運用もはるかに容易だ。
だが、このソリューションでも、そのほかの災害復旧の仕組みでも、バックアップ拠点側のリソースは通常時は使われていないか、あるいはほとんど使われないため、コストなどの面で望ましい状態とはいえない。また、短いながらもある程度のダウンタイムが発生してしまう。さらにストレージによる遠隔複製の機能や運用方法によっては、直近数時間分のデータが複製されていなかったために失われてしまうということもあり得る。
一方、分散仮想データセンターの仕組みを使うと、例えば2つのデータセンターとしてサイトAとBで50%ずつのリソースを持ち、それをアクティブ/アクティブで稼働させることで100%のリソースを持つことができる。遊休リソースはなくなり、災害時などには被害を受けていないサイトに片寄せすることで事業継続も確保できる。縮退時50%稼働というのは従来のスタンバイサイトと同じだが、イニシャルコストおよびランニングコストを、大きく削減できる。
複数データセンターをアクティブ/アクティブで運用する、分散仮想データセンター構築のための技術要素は、データセンター間でストレージを共有するストレージフェデレーション、サーバ仮想化と仮想マシンのライブマイグレーション、ネットワークのL2延伸(レイヤ2延伸)である。各分野で先進ベンダが取り組んでいるが、それらの技術を組み合わせて本当に遠隔データセンター間で仮想マシンが移動するような運用が可能かどうかは、入念な検証が必要となる。
伊藤忠テクノソリューションズ(以下、CTC)は、SIerの立場でこの検証を行うとして、5月21日に「マルチ仮想データセンター環境での実証実験を開始」と発表した。この実証実験では、 EMCのストレージフェデレーション技術、ヴイエムウェアのサーバ仮想化技術、シスコの L2延伸技術を組み合わせて、関東圏(横浜)と関西圏(神戸)にあるCTCのデータセンターを想定した検証を、テクニカルソリューションセンターで行っている。
分散仮想データセンターを実現するテクノロジー
キーテクノロジーのうち、サーバの仮想化とライブマイグレーション(VMware vSphereでいえばvMotion)は、単一のデータセンター内ですでに利用している企業も多い。仮想マシンの移動先が別のデータセンターになった時に必要なことの1つは、データが共有されていることだ。そのための技術がストレージフェデレーションである。
ストレージフェデレーションでは、2カ所のデータセンター間にまたがって、共通で使う仮想ボリュームを持つことができる。これによって、あたかも1つのストレージが複数のデータセンターにまたがって存在しているように扱うことができ、仮想マシンのライブマイグレーションについても単一データセンター内で行うのとまったく同じように実行できることになる。具体的には、EMCのVPLEXという製品の持つストレージフェデレーション機能を、CTCでは検証している。
この場合、もちろんライブマイグレーションはWAN経由で行う必要があるが、VMware vSphereについては、「Long Distance vMotion」(長距離 vMotion)として、さまざまな実証がこれまでに行われてきた。
もう1つの技術要素がネットワークのL2延伸である。仮想マシンがデータセンター間でライブマイグレーションできるようにするためには、仮想マシンの移動元と移動先が同じレイヤ2セグメントに属していなければならない。この問題を解決するのがL2延伸の技術だ。
これまでも、複数データセンター間をダークファイバで接続したりキャリアの広域イーサネットサービスを利用するなど、L2延伸を実現する方法はあった。ただし、どちらもかなり高額となる。また、L2ネットワークでは機器がMACアドレスの学習のためにドメイン全体にブロードキャストするので、WAN内を大量のトラフィックが流れる。これをフラッディングというが、WANはさほど広帯域ではないのでこれは望ましくない。他にも、複数のデータセンター間をフルメッシュで接続する場合、ネットワーク装置にすべての接続設定が必要となるため、拠点数の増減の際に設定変更が煩雑などといった、ネットワーク上の課題がある。
そこで今回の実証実験では、Cisco Nexus 7000のL2延伸技術を採用している。これで提供されるOTV(Overlay Transport Virtualization)機能を使うと、IPで到達できるネットワークならどこへでも、L2ネットワークを延伸できる。というのは、OTVではMACアドレスにIPアドレスを関連付けたアドレステーブルを管理・維持し、同じデータセンター内のサーバ宛てならMACアドレスを、異なるデータセンターのサーバ宛てならIPアドレスを使って通信できるからだ。具体的には、イーサネットフレームをIPでカプセル化(MAC in IP)してデータセンター間を移動し、相手先に着いたらそのカプセル化を解いてMACアドレスによってサーバに送り届ける。
CTCが検証しているもう1つの技術は、これもシスコが提供しているLISPというプロトコル。一般的な災害復旧シナリオでは、固定IPアドレスを付与した仮想マシンが別のデータセンターに移動すると、DNSの設定変更などの作業が発生する。位置情報とノード情報を別々に扱うことでこれを解決するのが、LISP(Location/ID Separation Protocol)だ。LISPはノードを示すEID(Endpoint Identifier)、データセンターの場所を表すRLOC(Routing Locator)、これらのマッピングデータベースの3つで構成される。EIDはサーバのIPアドレスで、RLOCはWANルータやデータセンターのコアスイッチの持つIPアドレス、これらをマッピングデータベースサーバで別々に管理する。LISPはサーバの移動を検知することで、サーバがどこのデータセンターにいるかリアルタイムで把握しているので、高速に切り替えが可能となる。
ネットワークに強いシスコのサーバだからできること
今回の実証実験では、サーバ自体のネットワーク系機能とサーバのハードウェア情報を抽象化して管理するサービスプロファイルの機能が充実していることから、Cisco UCSが採用された。UCS Managerにより最大160ブレードサーバを一括管理でき、これがそのままイーサネットスイッチ/SANスイッチとしても動作するほか、FCoE対応でケーブリングもシンプルにできる。
UCSの大きな特長の1つは、サービスプロファイルだ。UUID、MACアドレス、WWNなどのIDは、通常、物理的なサーバにひもづいた固定のものだ。しかし、UCSではこれらをサービスプロファイルとして抽象化し、UCS Managerで別のハードウェアに付け替えることができる。メリットは、ハードウェア障害で機器を交換した場合などを想定すると分かりやすい。通常ならSANスイッチの設定変更などの作業が必要だが、新しいハードウェアにサービスプロファイルを付け替えて流用すればそれが不要となる。この付け替え先ハードウェアは別のデータセンターにあってもかまわないため、データセンター間を物理マシンが移動するような場合にも利用できる。
もう1つは、Cisco UCS仮想インターフェイスカード(VIC)である。UCSのシャーシ内に挿すインターフェイスカードで、最大128個の仮想NICや仮想HBAを生成できる。シャーシ内の仮想マシンにそれぞれ専用のNICを割り当てたように見せ、実際のスイッチングはハードウェアスイッチで行うため、サーバ内のソフトウェアスイッチで通信するよりもパフォーマンスが高い。また、ソフトウェアスイッチではある程度のパケットロス発生リスクがあるが、その可能性はほとんどない。SQL Serverなどの運用では、このロスレスの通信やI/O転送レートの高さが重要になる。さらに、通信はハードウェアスイッチを経由するため可視化が可能だ。ということは、通信制御も可能ということで、スイッチの持つQoSやアクセスコントロールの機能を仮想マシンレベルで適用できる。
実証実験は3つのフェイズを定義しており、昨年から各技術単体での検証、接続しての基本動作検証、遅延検証などを行ってきた。これらが終了し、今年7月からはフェイズ3として、各技術を連携して実際にアプリケーションを動作させ、遅延や適切な帯域を確認する検証に入った。「技術的にできることと、実際にお客様が利用するレベルで考えた時の問題点は別。今回の実証実験はその点を明確にする意味もある」(シスコ データセンターソリューション シニアコンサルティングシステムズエンジニア 大平 伸一氏)。
CTCは「SIerとしてマルチベンダ環境やアプリケーションを含めた検証ができることと、自分たちでデータセンターを持っているためより現実に近い環境を検証できる」(CTCクラウドビジネス推進本部 富坂 亮氏)のが強みだ。同社のデータセンターにこれらの技術を導入し、顧客のデータセンターとの組み合わせで分散仮想データセンターを構築することも検討している。
CTCでは、この検証に基づくデモを7月17日から顧客にも紹介し始めており、製造業を中心に幅広い業界の顧客から強い関心を受けている。
この記事に興味のある方におすすめのホワイトペーパー
データセンター相互接続がいよいよ企業の選択肢に。「OTV」「LISP」を徹底解説!
仮想マシンのデータセンター間移動などのために、データセンターの相互接続は不可欠だ。既存の相互接続技術の課題を解決する最新技術、「OTV」「LISP」を徹底解説する。
関連リンク
関連記事
- シスコのサーバが米国シェア2位を獲得した理由 (@IT Special)
提供:シスコシステムズ合同会社
アイティメディア営業企画/制作:@IT 編集部
掲載内容有効期限:2012年09月25日
おすすめのホワイトペーパー
仮想マシンのデータセンター間移動などのために、データセンターの相互接続は不可欠だ。既存の相互接続技術の課題を解決する最新技術、「OTV」「LISP」を徹底解説する。
[an error occurred while processing this directive]