• 検索結果がありません。

ネストしたVMを用いた仮想化システムの高速なソフトウェア若化

N/A
N/A
Protected

Academic year: 2021

シェア "ネストしたVMを用いた仮想化システムの高速なソフトウェア若化"

Copied!
8
0
0

読み込み中.... (全文を見る)

全文

(1)情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ネストした VM を用いた仮想化システムの 高速なソフトウェア若化 大庭 裕貴1. 光来 健一1,2. 概要:仮想化システムにおけるソフトウェア・エージングにはソフトウェア若化で対処することができる. ソフトウェア若化の典型的な例はシステムの再起動であるが,その際の仮想マシン(VM)のダウンタイム を削減するには,VM をあらかじめマイグレーションしておけばよい.しかし,マイグレーションはシス テムに大きな負荷をかけてしまい,そのシステム上で動作する VM の性能にも影響を及ぼす.そこで本稿 では,ネストした VM を用いて,低負荷で高速なマイグレーションを可能とする VMBeam を提案する. VMBeam では,同一ホスト上で二つの仮想化システムを動作させ,一方の仮想化システムを再起動する際 にはすべての VM をもう一方の仮想化システム上にマイグレーションする.この際に,VM のメモリの内 容を仮想ネットワーク経由で転送する代わりに,同一ホスト上にあることを利用して VM 間でメモリをコ ピーまたはスワップする.VMBeam を Xen に実装し,マイグレーションの時間の短縮および CPU 負荷 の低下を確認した.. Fast Software Rejuvenation of Virtualized Systems Using Nested Virtualization Hiroki Ooba1. Kenichi Kourai1,2. Abstract: Software rejuvenation can counteract software aging in virtualized systems. Its typical example is a system reboot. To reduce the downtime of virtual machines (VMs) during the reboot, VMs can be migrated in advance. However, VM migration stresses the system and affects the performance of the VMs running on top of it. In this paper, we propose VMBeam, which enables fast migration with low load using nested virtualization. VMBeam runs two virtualized systems at the same host. When one virtualized system is rejuvenated, VMBeam migrates the VMs to the other. At this time, VMBeam copies or swaps memory between VMs, which are located on the same host, instead of transferring memory contents via the virtual network. We have implemented VMBeam in Xen and confirmed the reduction of migration time and a drop of CPU utilization.. 1. はじめに. シン(VM)を動作させることによって,物理マシンの台 数を減らし,コストを削減することができる.しかし,仮. クラウドコンピューティングをはじめとして,様々なシ. 想化システムは仮想化を行っていない従来のシステムと. ステムで仮想化が行われるようになってきている.このよ. 比べるとより長時間連続で運用されることが多いため,ソ. うな仮想化システムでは一台の計算機の中で複数の仮想マ. フトウェア・エージング [1] と呼ばれる現象が発生しやす くなる.ソフトウェア・エージングとは動作しているソフ. 1. 2. 九州工業大学 Kyushu Institute of Technology 独立行政法人科学技術振興機構 CREST JST, CREST. ⓒ 2013 Information Processing Society of Japan. トウェアの状態が次第に劣化していく現象であり,メモリ リークなどが原因として挙げられる.ソフトウェア・エー. 1.

(2) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ホスト1. ジングが起こるとシステムの性能が次第に低下していき,. ホスト2. 最悪の場合には想定外のシステムダウンが発生する可能性 もある. ソフトウェア・エージングの問題に対処するために,ソ フトウェア若化と呼ばれる手法が提案されている [1].ソフ トウェア若化はシステムの状態をソフトウェア・エージン. VM. VM. …. VM. ハイパーバイザ 図 1. VM. VM. …. VM. ハイパーバイザ. マイグレーションを活用したソフトウェア若化. グが起こる前の状態に戻すための手法である.ソフトウェ ア若化を行うことでシステムの性能を回復することがで. のマイグレーションを繰り返すとドメイン 0 の空きメモリ. き,システムダウンを防ぐことができる.ソフトウェア若. が減少していくことが報告されている [2].また,VM のサ. 化の典型的な例はシステムの再起動である.しかし,仮想. スペンド・レジュームを繰り返すとドメイン 0 の空きディ. 化システムを再起動するには,動作しているすべての VM. スク容量が減少していくことも報告されている.. を一旦停止させ,仮想化システムの再起動後に再び起動し. このようなソフトウェア・エージングの問題に対処する. 直さなければならない.多くの VM の停止や起動には時間. ために,ソフトウェアを正常な状態に戻すソフトウェア若. がかかるため,その間,サービスを提供できないダウンタ. 化 [1] と呼ばれる手法が提案されている.その最も単純な. イムが生じる.. 方法として,システムを再起動することでソフトウェア若. このダウンタイムを削減するには,VM を動作させたま. 化を行うことができる.仮想化システムの場合,ハイパー. ま別のホストに移動させるマイグレーションを用いること. バイザの再起動が必要となるが,その際にはハイパーバイ. ができる.仮想化システムを再起動する前にすべての VM. ザ上で動作しているすべての VM を一旦停止し,ハイパー. を別のホストにマイグレーションしておけば,VM 上の. バイザが起動してからすべて起動し直す必要がある.VM. サービスは再起動の影響を受けない.しかし,マイグレー. 上で動作している OS の再起動には時間がかかる上,近年. ションを行うにはネットワークを介した大量のデータ転送. の計算機の高性能化により多くの VM が集約されて動作. が必要となるため,ホストやネットワークに大きな負荷を. している場合もある.そのため,VM 上で提供されている. かけてしまう.一方で,システム全体への影響を考えて,. サービスのダウンタイムが長くなる傾向にある.. マイグレーション速度を抑えた場合には,ソフトウェア若 化の完了までに時間がかかってしまう. 本稿では,ネストした VM(Nested Virtualization)を. ソフトウェア若化に伴う VM のダウンタイムを削減す るために,VM を動作させたまま別のホストに移動させる ことができるマイグレーションを活用することができる.. 用いて,低負荷で高速なマイグレーションを可能とする. ハイパーバイザのソフトウェア若化を行う前に,図 1 のよ. VMBeam を提案する.VMBeam では,同一ホスト上で二. うに,そのハイパーバイザ上で動作しているすべての VM. つの仮想化システムを動作させ,一方の仮想化システムの. をマイグレーションにより別のホストに移動する.その際. ソフトウェア若化の際にはもう一方の仮想化システムに. の VM のダウンタイムはライブマイグレーションを用いる. VM をマイグレーションする.その際に,これらの仮想化. ことにより抑えることができる.その後でハイパーバイザ. システムが同一ホスト上にあることを利用して VM のメモ. を再起動することで,VM に影響を与えることなくソフト. リ転送を高速化する.我々は VMBeam を Xen 4.2 [3] に実. ウェア若化を行うことができる.. 装した.VMBeam を用いてメモリのコピーまたはスワッ. しかし,VM のマイグレーションはシステムやネット. プによるマイグレーションを行うことにより,通常のマイ. ワークに大きな負荷がかかる.VM をマイグレーションす. グレーションよりも低負荷で高速に行えることを確認した.. るには移動元のホストから移動先のホストに VM のメモ. 以下,2 章で仮想化システムの従来のソフトウェア若化. リ内容を転送する必要がある.このメモリの転送は,すべ. の問題について述べ,3 章で VMBeam を提案する.4 章で. ての VM を移動させる場合には合計で数 GB から数十 GB. VMBeam の実装について説明し,5 章で VMBeam を用い. ものデータ量になることもある.そのため,移動元と移動. て行った実験について述べる.6 章で関連研究に触れ,7. 先のホストの CPU やメモリ帯域を占有することにより,. 章で本稿をまとめる.. ホストのシステムの性能低下を引き起こす.また,マイグ. 2. 仮想化システムのソフトウェア若化. レーション専用のネットワークを用意していない場合は, マイグレーション処理がネットワーク帯域を占有してしま. 仮想化システムは長時間動作するソフトウェアであるた. い,ホストのネットワーク性能に大きな影響を及ぼす.こ. め,ソフトウェア・エージング [1] が発生しやすい.ソフト. れらの負荷により,そのホスト上で動作している VM の性. ウェア・エージングはメモリの解放し忘れや,オープンし. 能も低下してしまう.. たファイルの閉じ忘れなどのバグのために,システムの性. このようなマイグレーション中のシステム全体の性能低. 能が次第に低下していく現象である.Xen において,VM. 下を抑えるには,マイグレーションの速度を抑える方法が. ⓒ 2013 Information Processing Society of Japan. 2.

(3) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ホストVM2. ホストVM1 ゲスト VM. ゲスト VM. ゲスト・ハイパーバイザ1. ゲスト VM. ゲスト VM. ゲスト・ハイパーバイザ2. ホスト・ハイパーバイザ 図 2. ホストVM1. ホストVM2. ゲスト VM メモリ. ゲスト VM メモリ. ゲスト・ハイパーバイザ1. ゲスト・ハイパーバイザ2. 仮想NIC1. 仮想ネットワーク. 仮想NIC2. ホスト・ハイパーバイザ. ネストした VM のシステム構成 図 3. VM 間メモリコピーによるメモリ転送. 考えられる.マイグレーションで用いるネットワーク帯域 を制限することで,ネットワークへの負荷を軽減し,その. ザのソフトウェア若化を行う際には,従来と同様に,ホス. 結果,システムへの負荷も軽減することができる.その一. ト VM を別のホストにマイグレーションしてから行う.. 方で,マイグレーションに時間がかかるようになることに より,ハイパーバイザの再起動が可能になるまでの時間が 長くなり,仮想化システムのソフトウェア若化時間の増大 につながる.. 3. VMBeam. 3.2 高速な VM マイグレーション VM のマイグレーションを行う際には,移動元の仮想化 システムから移動先の仮想化システムにマイグレーショ ン要求が出される.移動先の仮想化システムはマイグレー ションされてきた VM を復元するために,メモリや CPU. 本稿では,仮想化システムの高速なソフトウェア若化を. などを初期化した空の VM を作成する.移動元の仮想化シ. 実現するために,ネストした VM を用いて低負荷で高速. ステムはマイグレーションする VM のメモリ内容や CPU. なマイグレーションを可能にする VMBeam を提案する.. の状態を仮想ネットワークを介して移動先の仮想化システ. VMBeam では,同一ホスト上で二つの仮想化システムを動. ムに転送する.そして,移動先では受け取ったメモリ内容. 作させ,一方の仮想化システムを再起動する際には,もう. や CPU の状態を空の VM に書き込むことで VM の移動を. 一方の仮想化システム上に VM をマイグレーションする.. 実現する.ネストした VM においては,VM の移動元と移. この際に,VM のメモリ内容を仮想ネットワーク経由で転. 動先が同一ホストであるため,仮想ネットワークを用いた. 送する代わりに,同一ホストにあることを利用して VM 間. データ転送を高速に行える可能性があるが,ネットワーク. でメモリを高速に転送する.この手法により,マイグレー. 仮想化のオーバヘッドも大きくなる.また,移動元と移動. ションの高速化および負荷の軽減を図る.. 先の処理を同一ホストで行うため,システムへの負荷は通 常のマイグレーションの 2 倍になる可能性がある.. 3.1 ネストした VM の活用. VMBeam は,マイグレーションにおけるメモリ転送の. 同一ホスト上で二つの仮想化システムを動作させるため. 高速化のために 2 つの手法を提供する.1 つ目は VM 間. に,VMBeam ではネストした VM を利用する.ネストし. メモリコピーであり,ホスト・ハイパーバイザが移動元の. た VM を用いると,VM の中で一つの仮想化システムを動. ゲスト VM のメモリを移動先の空のゲスト VM に直接コ. 作させることができる.ネストした VM を用いたシステ. ピーする.VM 間メモリコピーは,仮想ネットワークによ. ム構成を図 2 に示す.区別のために,通常の仮想化システ. るデータ転送の高速化である.VM 間メモリコピーによる. ムにおけるハイパーバイザ,VM をそれぞれホスト・ハイ. 転送を図 3 に示す.VM 間メモリコピーを用いることでホ. パーバイザ,ホスト VM と呼び,ホスト VM 内で動作す. スト VM 間での仮想ネットワークのエミュレーションが不. るものをそれぞれゲスト・ハイパーバイザ,ゲスト VM と. 要となる.また,セマンティクスは仮想ネットワークを使. 呼ぶ.. 用した転送と同等であるため,ライブマイグレーションも. 本稿では,ゲスト・ハイパーバイザをソフトウェア若化. 可能である.しかし,通常のマイグレーションと同様に移. の対象とする.VM のマイグレーションやサスペンド,レ. 動元と移動先でゲスト VM のためのメモリ領域を確保する. ジュームなどの操作を行う際にソフトウェア・エージング. 必要があるため,マイグレーション中は VM の 2 倍のメモ. が起こりやすい [2] ため,それらの操作を行うゲスト・ハ. リが必要となる.. イパーバイザのほうが頻繁にソフトウェア若化を必要とす. 2 つ目の手法は VM 間メモリスワップであり,ホスト・. ると考えられる.一方,ホスト・ハイパーバイザはこのよ. ハイパーバイザが移動元と移動先のゲスト VM のメモリ. うな操作を行わないため,比較的,ソフトウェア・エージ. を入れ替える.この手法は仮想ネットワークによるデータ. ングが起こりにくいと考えられる.ホスト・ハイパーバイ. 転送の単純な高速化ではないが,移動先のゲスト VM が空. ⓒ 2013 Information Processing Society of Japan. 3.

(4) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ホストVM1 ゲスト VM. ホストVM2 ゲスト VM. メモリ1. メモリ2. ゲスト・ハイパーバイザ1. ゲスト・ハイパーバイザ2. ホストVM ゲスト VM. GPFN. ゲスト・ハイパーバイザ. HPFN. ホスト・ハイパーバイザ. ホスト・ハイパーバイザ. 図 4 VM 間メモリスワップによるメモリ転送. MFN. であるため,マイグレーションとほぼ同等の効果を得るこ とができる.VM 間メモリスワップによる転送を図 4 に示 す.VM 間メモリスワップを用いることで,ゲスト VM の メモリをコピーする必要がなくなる.また,移動先でゲス ト VM のメモリ領域を確保せずに済ませる(メモリフリッ プ)ことも可能になり,メモリの節約が可能である.しか し,一部でもメモリの入れ替えを行うと,移動元のゲス ト VM は動作し続けられなくなるため,ライブマイグレー ションを行うことは難しくなる.. 4. 実装 4.1 Xen におけるネストした VM 我々は Xen 上で Xen を動作させることでネストした VM を構築した.ホスト・ハイパーバイザとして Xen 4.2 を動 作させ,その上でホスト VM を HVM(完全仮想化)ゲス トとして動作させた.次に,ホスト VM 上でゲスト・ハ イパーバイザとして Xen 4.2 を動作させ,その上でゲスト. VM を HVM ゲストとして動作させた.Xen では VM を管 理するためにドメイン 0 と呼ばれる管理 VM が用いられる が,ホスト VM を管理する VM をホスト管理 VM,ゲスト. VM を管理する VM をゲスト管理 VM と呼ぶ. ネストした VM におけるメモリモデルを図 5 に示す.. Xen おいて,ホスト・ハイパーバイザはマシンメモリと呼 ばれるマシン全体で管理している物理メモリを扱い,マシ ンメモリの一部をホスト VM に割り当て,疑似的な物理 メモリとして扱わせる.これをホスト物理メモリと呼ぶ. ゲスト・ハイパーバイザはこのホスト物理メモリの一部を さらにゲスト VM に割り当てる.これをゲスト物理メモ リと呼ぶ.それぞれのメモリにはメモリフレーム番号が振 られ管理される.マシンメモリにはマシンフレーム番号. 図 5. 高速化および負荷軽減を行う.このマイグレーションの流 れを図 6 に示す.Xen では,ゲスト VM のマイグレーショ ンはマイグレーション元とマイグレーション先のゲスト管 理 VM 間で行われる.従来のマイグレーションでは,マイ グレーション元のゲスト管理 VM がゲスト VM のメモリ 内容をネットワーク経由でマイグレーション先に送ってい た.VMBeam ではその代わりに,ゲスト VM に割り当て られているホスト物理メモリの情報(HPFN)をホスト管 理 VM で動作するメモリサーバに送る.ゲスト管理 VM が. HPFN を取得できるようにするために,ゲスト・ハイパー バイザにハイパーコールを追加し,ゲスト VM の GPFN を HPFN に変換できるようにした.同時に,マイグレー ション先のゲスト管理 VM は新たに作成したゲスト VM に割り当てたホスト物理メモリの HPFN をメモリサーバ に送る. これらのメモリ情報を受け取ったホスト管理 VM 上の メモリサーバは,ホスト・ハイパーバイザを呼び出すこ とによってゲスト VM 間で VM 間メモリコピーを行う.. VMBeam では,Xen の標準の機能を用いて VM 間メモリ コピーを実現した.メモリサーバで受け取った各ゲスト. VM の HPFN を指定してゲスト VM のメモリページをホ スト管理 VM のメモリ空間にマップし,移動元のゲスト. VM のメモリ内容を移動先の空のゲスト VM のメモリに コピーする.現在の実装では,ライブマイグレーションに は対応しておらず,ゲスト VM を停止させて全メモリのコ ピーを行っている.ゲスト VM を動作させたままコピーを 行い,最終段階で差分のコピーを行うようにすることで,. メモリ情報. (MFN),ホスト物理メモリにはホスト物理フレーム番号 (HPFN),ゲスト物理メモリにはゲスト物理フレーム番号 (GPFN)が振られる.MFN と HPFN,HPFN と GPFN の間の対応はそれぞれホスト・ハイパーバイザ,ゲスト・. ネストした Xen におけるメモリモデル. ホスト管理VM メモリ サーバ. ホストVM1 ゲスト 管理 VM1. ハイパーバイザで管理される.. ゲスト VM. ゲスト・ハイパーバイザ1 4.2 コピー・マイグレーション VMBeam では,仮想ネットワークによるデータ転送の 代わりにメモリ操作だけを行うことでマイグレーションの. ⓒ 2013 Information Processing Society of Japan. ハイパーコール. ホストVM2 ゲスト 管理 VM2. ゲスト VM. ゲスト・ハイパーバイザ2. ホスト・ハイパーバイザ. 図 6 メモリ操作によるマイグレーション. 4.

(5) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ホストVM1 GPFN. ホストVM2. ゲスト VM. ゲスト VM. ゲスト・ハイパーバイザ1 HPFN. 表 1 各 VM へのメモリ,CPU 割り当て. GPFN. ゲスト・ハイパーバイザ2 HPFN. ホスト・ハイパーバイザ MFN 図 7. ホスト VM 間でのメモリスワップ. メモリ [GB]. CPU. ホスト管理 VM. 9.5. 16. ホスト VM. 10.0. 6. ゲスト管理 VM. 9.1. 6. ゲスト VM. 0.5. 2. クを用いたマイグレーション,コピー・マイグレーショ ン,スワップ・マイグレーションそれぞれにおけるマイグ レーション時間,CPU 負荷および,ダウンタイムを測定 する実験を行った.実験には Intel Xeon E5-2665(8 コア,. 2.40GHz)の CPU,32GB のメモリ,1TB の HDD を搭載 したマシンを用いた.ホスト管理 VM,ホスト VM,ゲス. ライブマイグレーションに対応することもできると考えら. ト管理 VM,ゲスト VM へのメモリ,CPU 割り当てを表 1. れる.. に示す.ホスト・ハイパーバイザ,ゲスト・ハイパーバイ. 4.3 スワップ・マイグレーション. は Linux 3.2.0,ゲスト管理 VM では Linux 3.5.0 を用いた.. ザとしてともに Xen 4.2.2 を動作させ,ホスト管理 VM で. VM 間メモリスワップを用いたマイグレーションの流れ. 本実験では図 6 のように,ホスト・ハイパーバイザ上でホ. もコピー・マイグレーションとほぼ同じである.VMBeam. スト管理 VM と 2 つのホスト VM を動作させ,ホスト VM. では,ホスト・ハイパーバイザがホスト VM 間でメモリ. 上でゲスト管理 VM とゲスト VM を動作させた.. を高速に入れ替えることで VM 間メモリスワップを行う. この機能はホスト・ハイパーバイザが二つのホスト VM へ. 5.1 ネストした VM のオーバヘッド. のメモリ割り当てを変更することで実現する.メモリ割り. UnixBench を用いて VM のネストによりどの程度の性能. 当てを変更するために,ホスト物理メモリとマシンメモリ. 低下が生じるのかを調べた.Xen 4.2 を用いてネストしたゲ. の間の対応を変更する必要がある.そこで,ホスト・ハイ. スト VM とネストを行っていないホスト VM で UnixBench. パーバイザが管理している,ホスト物理メモリからマシン. を実行した.また,比較のために,Xen-Blanket [4] を用い. メモリへの対応表である P2M テーブルを書き換え,図 7. てネストしたゲスト VM についても UnixBench を実行し. のようなメモリ割り当てに変更することで,二つのホスト. た.Xen-Blanket ではゲスト VM を PV(準仮想化)ゲスト. VM 間でメモリを入れ替える.Intel の CPU の仮想化支援. として動作させる点が異なる.UnixBenchn の各スコアを. を用いる場合,P2M テーブルは EPT を用いて実装され. 図 8 に示す.この結果より,Xen 4.2 を用いてネストした. る.また,マシンメモリからホスト物理メモリへの対応表. ゲスト VM において演算処理,ファイルのコピー,システ. (M2P テーブル)もホスト・ハイパーバイザが管理してお. ムコールのオーバヘッドに関しては性能低下はほとんどみ. り,P2M テーブルを書き換える際には,M2P テーブルの. られないが,execl 実行,プロセス生成,シェルスクリプト. 書き換えも行う.. 処理に関しては非常に性能が低下してしまうことが分かっ. VM 間メモリスワップを行う際には,ゲスト VM を停止 させてから,移動元と移動先のゲスト VM のメモリに関す. た.Xen-Blanket を用いてネストしたゲスト VM では,演 算処理以外では 80%以上性能が低下することが分かった.. るエントリを P2M テーブルと M2P テーブルから削除す. ただし,仮想 EPT などを用いることで平均 20%程度の性. る.そして,それらのエントリを逆にして移動元と移動先. 能低下で済むという報告もされている [5].. の P2M テーブルと M2P テーブルに追加し直す.加えて, そのページの所有者を入れ替え先のゲスト VM に変更す. 5.2 仮想ネットワーク性能. る.また,ホスト VM に割り当てられているメモリの一覧. マイグレーション時に利用するゲスト管理 VM 間のネッ. もリストで管理しているため,入れ替えたメモリに応じて. トワーク性能を調べるために,Xen 4.2 におけるゲスト管. このリストも更新する.. 理 VM 間,Xen-Blanket におけるゲスト管理 VM 間の仮想. 5. 実験. ネットワークの性能を比較する実験を行った.仮想ネット ワークのスループットを iperf を用いて計測した値を表 2. まず,ネストした VM を用いることによるオーバヘッド. に示す.結果より,Xen 4.2 の仮想ネットワーク性能はギ. と仮想ネットワーク性能を計測する実験を行った.次に,. ガビットイーサネットの性能よりも低いことが分かった.. マイグレーションの性能を調べるため,仮想ネットワー. これはホスト管理 VM で NIC(e1000)のエミュレーショ. ⓒ 2013 Information Processing Society of Japan. 5.

(6) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. ゲストVM(Xen 4.2). 1.2 1.0 xe0.8 dn0.6 I 0.4 0.2 0.0. en ot sy rh D. re ts ig re gn is u 2. se lb iar av. no sii ce rP -e lb uo D. en ot st he W. tu ph gu roh Tl ce xE. yp oC eil F. ezi sf ub 42 01. ゲストVM(Xen-Blanket). sk co lb xa m 00 02. yp oC lei F. 図 8. ezi sf ub 65 2. sk co lb xa m 00 5. yp oC eil F. ezi sf ub 69 04. tu ph gu roh T ep iP. sk co lb xa m 00 08. de sa bep iP. no tia er C ss ec or P. gn hic it w St xe tn oC. st ipr cS le hS. tn rer uc no c 1. st ipr cS le hS. tn rer uc no c 8. la C m et sy S. da eh re v O. UnixBench によるスコア比較. 仮想ネットワークの性能比較. 80. スループット [Mbps]. 70. Xen 4.2. 218. 60. Xen-Blanket. 1.0 × 104. s][ 50 間40 時. 表 2. ホストVM(ネストなし). ンを行うオーバヘッドによるものだと考えられる.一方,. Xen-Blanket ではギガビットイーサネットの 10 倍の性能 であった.これは Xen-Blanket のゲスト管理 VM では準仮 想化ネットワークドライバが用いられており,ネットワー ク仮想化のオーバヘッドが小さいためである.. コピー・マイグレーション スワップ・マイグレーション ホストVM間マイグレーション 物理マシン間マイグレーション Xen-Blanket. 30 20 10 0. 0. 128. 図 9. 256. 384 512 メモリサイズ[MB]. 640. 768. マイグレーション時間の比較. 5.3 マイグレーションの動作テスト コピー・マイグレーションおよびスワップ・マイグレー. Xen-Blanket によるホスト VM 間での通常のマイグレー. ションの動作確認を行った.これらのマイグレーションに. ションはメモリサイズが小さいと最も高速であるが,メ. よってゲスト VM を移動させた後もゲスト VM への SSH. モリサイズが大きくなるとコピー・マイグレーションやス. 接続を行うことができ,ゲスト VM が移動先のホスト VM. ワップ・マイグレーションより時間がかかることが分かっ. 上で正常に動作を続けていることが確認できた.. た.メモリサイズが 768MB の場合,コピーマイグレーショ ンとスワップ・マイグレーションの方が 40%高速であっ. 5.4 マイグレーション時間 ゲスト VM に割り当てるメモリサイズを 128MB から. 768MB まで増やした場合のマイグレーションにかかる時. た.ただし,Xen-Blanket は PV ゲストのマイグレーショ ンとなるため,HVM ゲストをマイグレーションする他の 手法とは単純に比較できない.. 間を計測した.コピー・マイグレーション,スワップマイ グレーション,ホスト VM 間での仮想ネットワークを用い. 5.5 マイグレーション時の CPU 負荷. たマイグレーション(Xen 4.2 および Xen-Blanket) ,およ. ゲスト VM に割り当てるメモリサイズを 128MB から. び,物理マシン間の通常のマイグレーションにかかる時間. 768MB まで増やした場合のマイグレーション中のマシン. をそれぞれ 5 回ずつ計測した平均値を図 9 に示す.この結. 全体の CPU 負荷を計測した.コピー・マイグレーション,. 果より,どのマイグレーション手法でもマイグレーション. スワップ・マイグレーション,ホスト VM 間での通常のマ. にかかる時間はゲスト VM のメモリサイズに比例すること. イグレーション,物理マシン間での通常のマイグレーショ. が分かる.割り当てるメモリサイズが 768MB の場合でも,. ンの間の CPU 負荷の変化を図 10 から図 13 に示す.コ. コピー・マイグレーションにかかる時間は 12.5 秒,スワッ. ピー・マイグレーション,スワップ・マイグレーションと. プ・マイグレーションにかかる時間は 12.8 秒となった.ホ. もに負荷最大時でもホスト VM 間での通常のマイグレー. スト VM 間での通常のマイグレーションと比較して,コ. ションよりも低負荷であることが分かる.また,物理マシ. ピー・マイグレーション,スワップマイグレーションとも. ン間での通常のマイグレーションと比較しても,より低負. に最大で 80%高速に行えることが分かった.また,物理マ. 荷で行えていることが分かった.コピー・マイグレーショ. シン間での通常のマイグレーションと比較しても,スワッ. ンとスワップ・マイグレションを比較すると,負荷の高ま. プ・マイグレーション,コピーマイグレーションともに最. るタイミングはずれているが,ほぼ同程度の負荷であるこ. 大で 40%高速に行えることが分かった.. とが分かった.. ⓒ 2013 Information Processing Society of Japan. 6.

(7) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. メモリコピー. 300. メモリスワップ. 250. 60. ][s 50 間40 時30 20. 50. 10 1. 3. 5. 7. 図 10. 300. 9. 11 13 15 17 19 21 23 25 経過時間[s]. 128MB 時の CPU 負荷. メモリコピー. 0. 図 14. メモリスワップ 14. 250. 10. ]s[ 8 間6 時 2 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 経過時間[s] 図 11. 28.84 18.41 0.39. 0.43. 0.48. 0.46. 128. 256 512 メモリサイズ[MB]. 768. ホスト VM 間での通常のマイグレーション中のダウンタイム. マイグレーション時間. 9.17. 11.20. コピー時間 12.50 8.94. 7.6. 6.2. 0.23. 0.46. 0.89. 1.23. 0. 128. 256 512 メモリサイズ[MB]. 768. 256MB 時の CPU 負荷. メモリコピー. コピー・マイグレーション中のダウンタイム. メモリスワップ 14. 250. ] [%200 率 用150 使 U P100 C. マイグレーション時間. 12 10. s][ 8 間6 時. 50. 8.47 4.90. 9.73 6.15. ダウンタイム. スワップ時間 12.77. 11.18 9.1 7.6. 4. 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 経過時間[s] 図 12. 300. 9.72. ダウンタイム. 5.7. 図 15. 0. 69.98. 4. 50. 300. ダウンタイム. 48.12. 12. ] [%200 率 用150 使 U P100 C 0. マイグレーション時間. 70. ] 200 [% 率 用150 使 U P100 C 0. 80. 2 0. 0.14. 0.27. 0.55. 0.88. 128. 256 512 メモリサイズ[MB]. 768. 512MB 時の CPU 負荷. メモリコピー. メモリスワップ. 図 16. スワップ・マイグレーション中のダウンタイム. VM のダウンタイムを計測した.ホスト VM 間での通常の. 250. ] % [ 200 率 用150 使 U P100 C. マイグレーション,コピー・マイグレーション,スワップ・. 50. ホスト VM 間での通常のマイグレーションではダウンタ. 0. マイグレーションを行っている間のマイグレーション時間 に対するゲスト VM のダウンタイムをそれぞれ 5 回ずつ 計測した平均値を図 14,15,16 に示す.この結果より,. 1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 経過時間[s] 図 13. 768MB 時の CPU 負荷. イムはほぼ生じていないことが分かった.また,コピー・ マイグレーション,スワップ・マイグレーションのどちら を用いてもほぼ同じ時間のダウンタイムが生じることが分 かった.ゲスト VM に割り当てるメモリサイズが 768MB. 5.6 マイグレーション中のダウンタイム. の時,ダウンタイムは 9 秒程度であった.. ゲスト VM に割り当てるメモリサイズを 128MB から. その内,VM 間メモリコピー,VM 間メモリスワップに. 768MB まで増やした場合のマイグレーション中のゲスト. 要している時間をみてみると 1 秒前後であることが分かっ. ⓒ 2013 Information Processing Society of Japan. 7.

(8) 情報処理学会研究報告 IPSJ SIG Technical Report. Vol.2013-OS-127 No.14 Vol.2013-EMB-31 No.14 2013/12/3. た.ダウンタイムの残り時間のほとんどは,ゲスト VM の. ために,ネストした VM を用いて高速かつ低負荷なマイグ. 情報をゲスト管理 VM 間で送信する時間および,メモリ情. レーションを可能にする VMBeam を提案した.VMBeam. 報をゲスト管理 VM とホスト管理 VM 間で送信する時間. では,同一ホスト上で二つの仮想化システムを動作させ,. である.これらは仮想ネットワーク性能の影響を大きく受. 仮想化システムのソフトウェア若化時には VM をもう一. けており,仮想ネットワークを用いずに送信できるように. 方の仮想化システムにマイグレーションする.このマイグ. することで大幅に短縮することが可能だと考えられる.. レーションはVM間メモリコピーや VM 間メモリスワップ. 6. 関連研究 Xen-Blanket [4] はネストした VM をサポートしていな い既存の仮想化システムの上でネストした VM を動作さ. を用いて高速化する.我々は Xen を用いて VMBeam の実 装を行い,VM のマイグレーションを通常よりも高速かつ 低負荷で行えることを示した. 現在の実装では,簡単のために,VM間メモリコピーや,. せることのできるシステムである.また,Xen-Blanket で. VM 間メモリスワップを行うのに必要なゲスト VM のメ. はゲスト管理 VM に Blanket ドライバと呼ばれる準仮想. モリ情報を仮想ネットワークを用いてメモリサーバへ転送. 化ドライバを導入することで,VM をネストすることに. している.そのため,仮想ネットワークを用いることによ. よる I/O のオーバーヘッドを削減している.本研究でも. るオーバーヘッドが生じてしまっている.このオーバヘッ. Xen-Blanket の利用を検討したが,Xen-Blanket はゲスト. ドは,ハイパーコールを用いてゲスト・ハイパーバイザ経. VM として PV ゲストしかサポートしていないため採用し. 由でホスト・ハイパーバイザに直接情報を送れるようにす. なかった.PV ゲストをマイグレーションする場合,VM. ることで削減できると考えられる.また,VM 間メモリコ. 間メモリスワップを行う際にゲスト VM のメモリ上にあ. ピーを用いたライブマイグレーションの実現や VM 間メモ. る P2M テーブルを書き換える必要がある.しかし,P2M. リスワップを用いる際のダウンタイムの削減も今後の課題. テーブルは不正な値が書き込まれないように書き込み保護. である.. がなされているため,VM 間メモリスワップを実装するの が難しい.HVM ゲストの場合,マイグレーション時にゲ. 参考文献. スト VM のメモリを書き換える必要がない.そのため,ゲ. [1]. スト VM として HVM ゲストをサポートしている Xen 4.2 を採用した.. Warm-VM Reboot [6] は VM を再起動せずにハイパー. [2]. バイザだけを再起動するシステムである.ハイパーバイザ を再起動する際に VM のメモリイメージをディスクなどの. [3]. 外部記憶ではなくメインメモリ上にそのまま保持すること で高速に VM をサスペンドする.また,起動時にはメイン メモリ上に残されたメモリイメージを再利用することで高 速に VM のレジュームを行うことができる.しかし,この. [4]. システムではハイパーバイザおよび管理 VM を再起動して いる間は VM が停止してしまいダウンタイムが発生する. [5]. ため,提案手法とはソフトウェア若化へのアプローチが異 なる.. [6]. ReHype [7] も VM を再起動することなくハイパーバイ ザのみを再起動することができるシステムである.Re-. Hype では,管理 VM の再起動さえも行う必要がないため, Warm-VM Reboot よりも高速にハイパーバイザの再起動 を行うことができる.さらに,ハイパーバイザの障害から. [7]. Y. Huang, C. Kintala, N. Kolettis, and N. Fulton. Software Rejuvenation: Analysis, Module and Applications. In Proceedings of the 25th International Symposium on Fault-Tolerant Computing, pages 381―391, 1995. Machida, F., Xiang, J., Tadano, K., Maeno, Y.: Combined Server Rejuvenation in a Virtualized Data Center, Proceedings of ATC, 2012 Barham,P.,Dragovic,B.,Fraser,K.,Hand,S.,Harris, T.,Ho,A.,Neugebauer,R.,Pratt,I.and Warfield, A.: Xen and the art of virtualization, Proceedings of the nineteenth ACP symposium on Operating systems principles, pp. 164-177(2003) Williams, D., Hani, J. and Hakim, W.: The Xen-Blanket: Virtualize Once, Run Everywhere, Proceedings of ACM EuroSys, Bern, Switzerland, April 2012 Nakajima, J.: Making Nested VIrtualization Real by Using Hardware Virtualization Features, LinuxCon Japan, May 2013 Kourai, K. and Chiba, S.: Fast Software Rejuvenation of Virtual Machine Monitors, IEEE Transactions on Dependable and Secura Computing (TDSC), Vol.8, No.6, pp.839-851, November/December 2011 Le, M. and Tamir, Y.: ReHype: Enabling VM Survival Across Hypervisor Failures, 7th ACM International Conference on Virtual Execution Environments, Newport Beach, California, pp.63-74, March 2011. も高確率で回復することが可能である.ただし,ReHype では,よりソフトウェア・エージングが起こりやすい管理. VM を再起動する際には,仮想化システム全体の再起動を 必要とする.. 7. まとめ 本稿では,仮想化システムの高速なソフトウェア若化の. ⓒ 2013 Information Processing Society of Japan. 8.

(9)

参照

関連したドキュメント

Using Virtual Tenant Network (VTN) function, four private networks were prepared on single physical network with OpenFlow switch.. Relocation of computer does not

This product includes software developed by the OpenSSL Project for use in the OpenSSL

Algebras, Lattices, Varieties Volume I, Wadsworth & Brooks/Cole Advanced Books &

NIST - Mitigating the Risk of Software Vulnerabilities by Adopting a Secure Software Development Framework (SSDF).

区内の中学生を対象に デジタル仮想空間を 使った防災訓練を実 施。参加者は街を模し た仮想空間でアバター を操作して、防災に関

In this study, the moving behavior and contact stress state of the ball pitched with the three rollers type pitching machine is analyzed using dynamic finite element analysis

ル(TMS)誘導体化したうえで検出し,3 種類の重水素化,または安定同位体標識化 OHPAH を内部標準物 質として用いて PM

Abstract Experiments of soil respiration are made using a soil sample mixed with a proper amount of compost in laboratory scale, Considering CO2 generation and diffusion processes,