• 検索結果がありません。

ubuntu server KVM セットアップ・ガイド

N/A
N/A
Protected

Academic year: 2021

シェア "ubuntu server KVM セットアップ・ガイド"

Copied!
43
0
0

読み込み中.... (全文を見る)

全文

(1)

ubuntu server 16.04

KVM セットアップ・ガイド

システムズ・ハードウェア事業本部

(2)

•© IBM Corporation 2014. All Rights Reserved. •ワークショップ、セッション、および資料は、IBMまたはセッション発表者によって準備され、それぞれ独⾃の⾒解を反映したものです。そ れらは情報提供の⽬的のみで提供されており、いかなる参加者に対しても法律的またはその他の指導や助⾔を意図したものではなく、またそ のような結果を⽣むものでもありません。本講演資料に含まれている情報については、完全性と正確性を期するよう努⼒しましたが、「現状 のまま」提供され、明⽰または暗⽰にかかわらずいかなる保証も伴わないものとします。本講演資料またはその他の資料の使⽤によって、あ るいはその他の関連によって、いかなる損害が⽣じた場合も、IBMは責任を負わないものとします。 本講演資料に含まれている内容は、IBM またはそのサプライヤーやライセンス交付者からいかなる保証または表明を引きだすことを意図したものでも、IBMソフトウェアの使⽤を規 定する適⽤ライセンス契約の条項を変更することを意図したものでもなく、またそのような結果を⽣むものでもありません。 •本講演資料でIBM製品、プログラム、またはサービスに⾔及していても、IBMが営業活動を⾏っているすべての国でそれらが使⽤可能である ことを暗⽰するものではありません。本講演資料で⾔及している製品リリース⽇付や製品機能は、市場機会またはその他の要因に基づいて IBM独⾃の決定権をもっていつでも変更できるものとし、いかなる⽅法においても将来の製品または機能が使⽤可能になると確約することを 意図したものではありません。本講演資料に含まれている内容は、参加者が開始する活動によって特定の販売、売上⾼の向上、またはその他 の結果が⽣じると述べる、または暗⽰することを意図したものでも、またそのような結果を⽣むものでもありません。 パフォーマンスは、管 理された環境において標準的なIBMベンチマークを使⽤した測定と予測に基づいています。ユーザーが経験する実際のスループットやパフォ ーマンスは、ユーザーのジョブ・ストリームにおけるマルチプログラミングの量、⼊出⼒構成、ストレージ構成、および処理されるワークロ ードなどの考慮事項を含む、数多くの要因に応じて変化します。したがって、個々のユーザーがここで述べられているものと同様の結果を得 られると確約するものではありません。 •記述されているすべてのお客様事例は、それらのお客様がどのようにIBM製品を使⽤したか、またそれらのお客様が達成した結果の実例とし て⽰されたものです。実際の環境コストおよびパフォーマンス特性は、お客様ごとに異なる場合があります。

•IBM、IBM ロゴ、ibm.com、[当該情報に関連し商標リスト中に掲載されたIBMブランド、製品名称があれば追加する]は、世界の多くの国 で登録されたInternational Business Machines Corporationの商標です。

他の製品名およびサービス名等は、それぞれIBMまたは各社の商標である場合があります。現時点での IBM の商標リストについては、www.ibm.com/legal/copytrade.shtmlをご覧ください。

•Adobe, Adobeロゴ, PostScript, PostScriptロゴは、Adobe Systems Incorporatedの⽶国およびその他の国における登録商標または商標です。 •IT Infrastructure Libraryは英国Office of Government Commerceの⼀部であるthe Central Computer and Telecommunications Agencyの登録商 標です。

インテル, Intel, Intelロゴ, Intel Inside, Intel Insideロゴ, Intel Centrino, Intel Centrinoロゴ, Celeron, Intel Xeon, Intel SpeedStep, Itanium, および Pentium は Intel Corporationまたは⼦会社の⽶国およびその他の国における商標または登録商標です。

•Linuxは、Linus Torvaldsの⽶国およびその他の国における登録商標です。

•Microsoft, Windows, Windows NT および Windowsロゴは Microsoft Corporationの⽶国およびその他の国における商標です。 •ITILは英国The Minister for the Cabinet Officeの登録商標および共同体登録商標であって、⽶国特許商標庁にて登録されています。

(3)

更新履歴

• 2017

年10⽉24⽇ 初版 (rev. 1.0) 発⾏

• 2017

年10⽉30⽇ 誤植修正

(4)

Agenda

1.

事前準備

2.

事前設定

3. ubuntu server

のインストール

4.

ホストOSの操作

5.

ゲストVMの作成

6.

参考情報

2-1. 管理ポートへの接続

2-2. IPMI 操作環境の準備

2-4. petibootについて

5-1. ゲストVMの作成準備

- リソース配分の決定

- ネットワークの定義

- ストレージプールの定義

5-2. ゲストVMの作成

- virt-install による作成例

- virt-manager による作成例

- virshコマンドによるゲストVMの操作

(5)

1.

事前準備

• ノートブックまたは、PC

• イーサネット・ケーブル

• ご使⽤のシステム⽤の電源コード及びコンセント(構成によって準備

いただく電源が異なりますので事前にご確認ください)

• ubuntu server インストール⽤メディア

• ubuntu server インストールイメージ

※1

導⼊前の事前準備として以下の項⽬をご⽤意ください。

⇒当ガイドでは、インストールイメージを展開したDVDを利⽤します。

※1 のインストールイメージは以下のサイトより⼊⼿可能です。

https://www.ubuntu.com/download/server/power8

(6)

2.

事前設定

2-1. 管理プロセッサーへの接続

Power Systems の管理プロセッサーである Flexible Service Processor(以下

「FSP」)へのアクセス設定を⾏います。

2-2. IPMI 操作環境の準備

FSPへのアクセスには Intelligent Platform Management Interface (以下「IPMI」)

ツール(以下「ipmitool」)を利⽤します。

2-3. Petiboot について

Open Power Abstraction Layer(以下「OPAL」) firmware モードでのユーザーイン

タフェースです。

(7)

2-1.

管理プロセッサーへの接続

1. Power Systems

を電源コードを結線し、プラグまたはPDUに挿します。

2. Power Systems

と接続するPCのIPアドレスを設定します。

3.

クライアント PC と HMC ポート1をイーサネットケーブルで接続します。

(

今回はHMC2を使⽤しています。)

4.

クライアント PC から Web ブラウザーで https://169.254.3.147 にアクセスし、Advanced

■ 管理ポート HMC1 を利⽤する場合は、HMC1 のデフォルトのIPアドレスに対して以下のようなIPを 設定します。 ■ 管理ポート HMC2 を利⽤する場合は、HMC2 のデフォルトのIPアドレスに対して以下のようなIPを 設定します。 サブネット・マスク: 255.255.255.0 サービス・プロセッサーのIP アドレス(デフォルト値): 169.254.2.147 PC またはノートブックのIP アドレス(設定例): 169.254.2.140 サブネット・マスク: 255.255.255.0 サービス・プロセッサーのIP アドレス(デフォルト値): 169.254.3.147 PC またはノートブックのIP アドレス(設定例): 169.254.3.140

(8)

2-2. IPMI

操作環境の準備

1. IPMI

でアクセス可能とするため ASMI 上で IPMI パスワードをセットします。

(9)

2-2. IPMI

操作環境の準備

1. Linux クライアントから操作

– ipmitool を使って SOL で操作(たいていのディストリビューションに付属)

– サーバーの電源をオン

ipmitool -I lanplus -H <FSP IP address> -P < ipmi password> chassis power on

– IPMIコンソールをアクティブ

ipmitool -l lanplus -H <FSP IP address> -P < ipmi password> sol activate

2. Windows クライアント上の Cygwin から操作

– Cygwin のインストール

– ipmitool ソースのダウンロードとコンパイル、インストール

– サーバーの電源をオン

ipmitool -I lanplus -H <FSP IP address> -P < ipmi password> chassis power on

– IPMIコンソールをアクティブ

ipmitool -I lanplus -H <FSP IP address> -P < ipmi password> sol activate

(10)

<

参考> IPMI使⽤時の環境別懸念点

1. Linux

クライアントから操作

– Linux クライアントを⽤意できるかどうか – 空いている Linux サーバーが使えるとかなり便利となります

2. Windows

クライアント上の Cygwin から操作

– Cygwin のインストールに時間がかかる(ダウンロードやインストールで30分〜1時間程度) – Cygwin をインストールするためのディスク空き容量(5GB 程度)

3. Windows

クライアントから操作

– ipmiutilをダウンロードして展開するだけで使えるのでセットアップが楽 – SOL セッションが切断される頻度が⾼い (Petitboot 画⾯が表⽰されるときなど) – 切断しても、再接続して上や下キーを押すことで、画⾯が表⽰される

(11)

2-3. Petiboot

について

OPAL firmware モードでシステムを起動すると Petiboot が起動します。

• OPAL firmware モードでのユーザーインターフェース

• メニューベースのブートローダー

• 機能

– ブート時のメニュー表⽰ – ブート可能なローカルディスク及びネットワークイメージの⾃動検索 – システム情報のリスト – ローカルディスク – ネットワーク設定、MACアドレス

• ブートメニューの編集

(新規エントリーの追加など

)

• Linux コマンドプロンプトの提供

– busyboxを利⽤

• デフォルトでは10秒でタイムアウトし、

デフォルトのエントリーがロード

(12)

3. ubuntu server

のインストール

1. Petitbootのメインスクリーンで、ubuntu server をどのデバイスからブートするのか確認をし

ます。

2. ubuntu server インストーラー・ブート・オプションを選択して、Enterキーを押します。

当ガイドではDVDメデイアでのインストールとなるため、そちらを選択し導⼊を実施します。

(システムの電源がオンになると、)Petitboot ブート・ローダがローカル・ブート・デバイスや

ネットワーク・インターフェースをスキャンして、システムで使⽤できるブート・オプションを検出

します。

(13)

4.

ホスト OS 側の準備

1.

再起動後 ubuntu server に KVM 関連モジュールを導⼊します。

$ sudo apt-get install -y qemu-kvm libvirt-bin virt-manager bridge-utils (login し直すと sudo 無しで virsh や virt-manager を利⽤できます)

2.

ホスト OS の SMT を OFF にします。

$ sudo ppc64_cpu --smt=off $ sudo ppc64_cpu --smt SMT is off

※ubuntu KVM の場合、ホスト OS 側の SMT は OFF に設定しておく必要があります。

(14)

<

参考> KVM での サブコア について

1.

ホスト OS 側で smt を設定します。

$ sudo ppc64_cpu --smt=on $ sudo ppc64_cpu --smt=8

2.

ホスト OS 側でサブコアを指定します。

$ sudo ppc64_cpu --subcores-per-core=4 Subcores per core set to 4

3.

ホスト OS 側で SMT を OFF にします。

$ sudo ppc64_cpu --smt=off

※サブコアを指定した場合、1コアで利⽤可能なスレッド数は 2 になります。

$ sudo ppc64_cpu --threads-per-core Threads per core: 2

KVM では通常1コア単位でのアサインになりますが、サブコアを活⽤することで1物理コアを4分割

して利⽤することが可能です。この機能により、より⼩さな単位で CPU 資源を各 VM にアサイン

することができます。

(15)

<

参考> virsh コマンドでの操作

コマンドオプション 説明 virsh connect KVMハイパーバイザーへの接続 virsh create XML構成ファイルからゲストVMの作成および起動 virsh list ゲストVM⼀覧表⽰ virsh dumpxml ゲストVMのXML構成ファイルの出⼒ virsh start 停⽌中のVMの起動 virsh destroy ゲストVMの即時停⽌ virsh define XML構成ファイルからゲストVMの作成(起動なし) virsh reboot ゲストVMの再起動 virsh restore 保管されたファイルからのゲストVMのリストア virsh resume ⼀時停⽌中のゲストVMの再開 KVM 上では virsh コマンドでのハイパーバイザー操作が可能です。

(16)

5.

ゲストVMの作成

5-1 ゲストVMの作成準備

‧ リソース配分の決定

‒ CPU、メモリーなど

‧ ネットワークの定義

‒ ネットワーク構成例 ‒ 仮想ネットワークの作成例

‧ ストレージプールの定義

ゲストVMファイルの配置 ⇒ DIR、NFS、iSCSI、FiberChannel ‒ イメージの種類

5-2 ゲストVMの作成

‧ virt-install に作成例

(17)

5-1

ゲストVMの作成準備

■ リソース配分の決定 – CPU,メモリーのリソース

• CPUの最⼩単位は1 vCPU

– 専有モードはなし

– 物理的なコアにバインドされる

– 同じ物理コアを使⽤するゲストがいる場合は共有

– 明⽰的なバインディングも可能

– virsh vcpupin コマンド

– オーバーコミットをサポート

– 搭載CPUコア数 x 20 程度までが現実的

• メモリーの割り当て MB単位

– Hugepageのサポート

下記の観点から、事前に作成するゲストVMのリソースを決める必要があります。

(18)

5-1

ゲストVMの作成準備

■ ネットワークの定義

• ホスト Linux の仮想ブリッジ機能を利⽤してネットワークを構成

– 仮想的なL2スイッチを構成 – 複数のブリッジを作成可能 – 物理デバイスのbondingもサポート

• 利⽤可能なネットワーク構成

– 物理NICでの仮想ブリッジ – NAT環境 – 独⽴ネットワーク

-

仮想ネットワークの構成選択肢

仮想環境のネットワーク構成を事前に準備する必要があります。

本導⼊ガイドでは仮想環境におけるネットワーク構成例を記載しております。

bond0 br0 bond1 br1 vnet0 仮想マシン VM01 eth0 vnet2 eth1 br1 br99 仮想マシン VM02 仮想マシン VM03

vnet3 vnet1 vnet4 vnet5 eth0 eth1 eth2 eth0

bond0 br0 bond1 br1 vnet0 仮想マシン VM01 eth0 vnet2 eth1 br1 br99 仮想マシン VM02 仮想マシン VM03

vnet3 vnet1 vnet4 vnet5 eth0 eth1 eth2 eth0

(19)

< 物理NICでの仮想ブリッジでの構成 >

KVM ホスト

Red Hat Enterprise Linux 6

br0 vnet0 物理NIC vnetX ・・・・・ 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0 ・・・ KVM ホスト br0 vnet0 物理NIC vnetX ・・・・・ 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0 ・・・

bond0

KVM ホスト

Red Hat Enterprise Linux 6

br0 ブリッジ接続 論理NIC vnet0

・・・・・

vnetX 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

bond0

KVM ホスト br0 ブリッジ接続 論理NIC vnet0

・・・・・

vnetX 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの構成選択肢

(20)

< NATを利⽤した構成 >

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの構成選択肢

KVM ホスト

Red Hat Enterprise Linux 6

br0 eth0 ブリッジ接続 eth1 vnet0

・・・・・

vnetX 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

KVM ホスト virbr0 eth0 物理NIC vnet0

・・・・・

vnetX 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

DHCP サービス

DNS サービス

IPマスカレード

(21)

<独⽴ネットワークの構成 >

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの構成選択肢

KVM ホスト

Red Hat Enterprise Linux 6

br0 vnet0

・・・・・

vnetX 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

KVM ホスト br99 vnetX

・・・・・

vnetY 仮想マシン 仮想NIC eth0 仮想マシン 仮想NIC eth0

・・・

(22)

コマンドオプション 説明 virsh net-info ネットワーク情報の表⽰ virsh net-list アクティブなネットワークの⼀覧表⽰ --allオプションで⾮アクティブなネットワーク情報も表⽰ virsh net-start ⾮アクティブなネットワークの活動化 virsh net-create XMLファイルからネットワークの作成 virsh net-autostart ネットワークの作成(⾃動起動) virsh net-define XMLファイルからネットワークの定義(⾮活動) virsh net-dumpxml ゲストVMの仮想ネットワーク情報を出⼒ virsh net-edit ネットワーク構成ファイル(XMLファイル)の編集 virsh net-update 既存ネットワーク定義の更新 virsh net-destroy ネットワークの停⽌

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの構成選択肢

KVM

上では virsh コマンドでのネットワーク操作が可能です。

(23)

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの作成例

当ガイドでは HOST OS 上で IP アドレスの割り当てられている物理 NIC を仮想ブリッジと接続す

る⽅法をご紹介いたします。

仮想ブリッジには IP アドレスは必須ではありません。

KVM

Red Hat Enterprise Linux 6

vnet0 vnetX NIC eth0 NIC eth0 KVM vnet0 vnetX NIC eth0 NIC eth0

(24)

ホスト OS 側で作成しているネットワークインターフェースをブリッジ(br0)に変更します。

※ご使⽤いただくネットワークのインターフェイスによりデバイス名は異なります。下記の記述はあくまでも設定の⼀例となります。

1.

ホスト OS 上のネットワークインターフェースを確認します。

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの作成例

$ ifconfig

enP3p18s0f0 Link encap:Ethernet HWaddr 40:f2:e9:5a:68:c8

inet addr:192.168.50.1 Bcast:192.168.255.255 Mask:255.255.0.0 UP BROADCAST MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000

RX bytes:0 (0.0 B) TX bytes:0 (0.0 B) Interrupt:221

lo Link encap:Local Loopback

inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host

(25)

2. ネットワーク・インターフェース設定ファイル(/etc/network/interfaces)を以下の例のように修

正し、仮想ブリッジ br0 を作成します。

$ sudo vi /etc/network/interfaces

# This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). source /etc/network/interfaces.d/*

# The loopback network interface auto lo

iface lo inet loopback

# The primary network interface auto br0

iface br0 inet static

address 192.168.50.1

5-1

ゲストVMの作成準備

■ ネットワークの定義

(26)

3.

設定を反映させるため システムの再起動を⾏います。

$ sudo reboot

4.

作成したブリッジ(br0)と物理デバイスのHWアドレスが同じであることを確認します。

5-1

ゲストVMの作成準備

■ ネットワークの定義

-

仮想ネットワークの作成例

$ ifconfig

br0 Link encap:Ethernet HWaddr 40:f2:e9:5a:68:c8

inet addr:192.168.50.1 Bcast:192.168.255.255 Mask:255.255.0.0 UP BROADCAST MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000

RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)

enP3p18s0f0 Link encap:Ethernet HWaddr 40:f2:e9:5a:68:c8 UP BROADCAST MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000

(27)

5-1

ゲストVMの作成準備

■ ストレージプールの定義

下記の観点から、事前にストレージプールを準備する必要があります。

• ストレージプール

– VMのイメージを配置するレポジトリー – 以下のいずれかの環境を準備する必要があります。 – ディレクトリー – デフォルトでは /var/lib/libvirt/images – NFS – iSCSI – LVM – SCSIファイバーチャネル

(28)

コマンドオプション 説明 virsh find-storage-pool-sources 指定したタイプのストレージプール情報を出⼒ virsh pool-define-as ストレージプールの作成 virsh pool-list ストレージプールの⼀覧表⽰ virsh pool-build ストレージプールのマウントポイント作成 virsh pool-start ストレージプールの開始 virsh pool-autostart ストレージプールの作成(⾃動開始) virsh pool-info ストレージプールの情報表⽰ virsh vol-create-as ボリュームの作成 virsh vol-list ボリュームの⼀覧表⽰

virsh vol-close --pool ストレージプール上のボリュームのコピーによる作成

virsh attach-device ゲストVMへのCD/DVDなどのデバイス追加

virsh attach-disk ゲストVMへのハードディスクなどのデバイス追加

5-1

ゲストVMの作成準備

■ ストレージプールの定義

(29)

• KVM ゲストの構成要素

– 仮想リソースについて記載されたデータファイルと構成ファイル

– OS が含まれるイメージファイル

– ブロックデバイスもサポートされるがファイルベースのデバイスのほうが柔軟性が高い

• virt-install による作成

– KVM ゲスト作成用のコマンドラインツール

– ゲスト VM の新規作成や開始など

– ゲスト用グラフィックコンソールも利用可能

– Kickstart や autoyast による自動インストールも可能

– 大量ゲスト VM 作成オプションの提供

• virt-manager (Virtual Machine Manager) による作成

– KVM ゲスト作成用のグラフィカルツール

5-2

ゲスト VM の作成

(30)

5-2

ゲストVMの作成

■ virt-install による作成例

sudo virt-install ¥ --name ubuntu1 ¥ --ram 8192 ¥ --disk path=/var/lib/libvirt/images/ubuntu1.img,device=disk,bus=virtio,format=raw,size=10 ¥ --vcpus 8,sockets=1,cores=2,threads=4 ¥ --os-type linux ¥ --os-variant ubuntu16.04 ¥ --network bridge=br0 ¥ --graphics none ¥ --console pty,target_type=serial ¥ --cdrom /var/lib/libvirt/images/iso/ubuntu-16.04.3-server-ppc64el.iso

virt-install

コマンドを使⽤して下記のようなゲストVMを作成する例を記載します。

※ --vcpuで指定した値は、sockets × cores × threads の 値と同じである必要があります。

※ socket × cores で指定したキャパシティー分の CPU リ ソースがホスト OS から割り当てられます。 OS : ubuntu 16.04 Memory : 8192MB vCPU : 8 Disk : 10GB 作成ゲストVM システム情報

(31)

5-2

ゲストVMの作成

■ virt-manager による作成例

virt-manager

を使⽤してゲスト OS のインストールを実施します。

1.

ホスト OS 上で virt-manager を起動します。

(32)

<

参考> VNC Server の導⼊

1.

ホスト OS 上に x11vnc パッケージを導⼊します。

$ sudo apt-get install -y x11vnc xfce4 xvfb

2. VNC

パスワードを指定します。

$ x11vnc -storepasswd Enter VNC password: Verify password:

Write password to /home/user/.vnc/passwd? [y]/n Password written to: /home/user/.vnc/passwd

3. VNC Server

を起動します。

$ x11vnc rfbauth /home/user/.vnc/passwd create forever bg env FD_TAG=my_xfce_1 env FD_SESS=xfce -rfbport 5901

(33)

5-2

ゲストVMの作成

■ virt-manager による作成例

(34)

5-2

ゲストVMの作成

■ virt-manager による作成例

3.

「New VM」ウィンドウが表⽰されます。当ガイドでは事前に⽤意した ISO イメージから導⼊

(35)

5-2

ゲストVMの作成

■ virt-manager による作成例

(36)

5-2

ゲストVMの作成

■ virt-manager による作成例

(37)

5-2

ゲストVMの作成

■ virt-manager による作成例

(38)

5-2

ゲストVMの作成

■ virt-manager による作成例

(39)

5-2

ゲストVMの作成

■ virt-manager による作成例

8.

作成する VM の内容が表⽰されます。「Begin Installation」をクリックすると VM の作成とゲ

ストの導⼊が始まります。

(40)

<参考> CPU Topology の指定

■ virt-manager による作成例

「CPUs」を選択し、「Topology」を選択すると CPU Topology を指定するこができます。 作成するVMで利⽤するSMT数を明⽰的に指定可能です。

(41)

5-2

ゲストVMの作成

■ virshコマンドによるゲストVMの操作 - デバイス操作編

下記のコマンドにてゲストVMのデバイス操作が可能です。

コマンドオプション 説明 virsh attach-device ゲストVMへのCD/DVDなどのデバイス追加 virsh attach-disk ゲストVMへのハードディスクなどのデバイス追加 virsh attach-interface ゲストVMへのネットワークインターフェース追加 virsh detach-device CD/DVDデバイスの削除 virsh detach-disk ディスクデバイスの削除 virsh detach-interface ネットワークインターフェースの削除 virsh setmem ゲストVMへのメモリーの割り当て virsh setmaxmem ゲストVMへのメモリー(最⼤値)の設定

(42)

5-2

ゲストVMの作成

■ virshコマンドによるゲストVMの操作 - ゲストVM マイグレーション操作編

下記のコマンドにてゲストVMのマイグレーション操作が可能です。

コマンドオプション 説明

virsh migrate ゲストVMのマイグレーション

virsh migrate –live ゲストVMのライブマイグレーション

virsh migrate –persistent 移動先へのゲストVMの完全コピー

virsh migrate –undefinesource 移動元のゲストVMの定義削除

virsh migrate –suspend 移動先でゲストVMが⼀時停⽌

virsh migrate –timeout 設定時間経過後に強制的にVMをサスペンドさせ

マイグレーションを実⾏

virsh migrate --verbose マイグレーションの進捗表⽰

ゲスト

VM

ゲスト

VM

(43)

6.

参考資料

1. Virtual Machine Manager

で VM を管理する

https://www.ibm.com/developerworks/jp/cloud/library/cl-managingvms/index.html

2. libvirt

仮想化ライブラリーの徹底調査

https://www.ibm.com/developerworks/jp/linux/library/l-libvirt/

3. Installing Ubuntu on an IBM Power System LC server

https://www.ibm.com/developerworks/linux/tutorials/l-installing-ubuntu-on-ibm-pslc-server/index.html

参照

関連したドキュメント

入札説明書等の電子的提供 国土交通省においては、CALS/EC の導入により、公共事業の効率的な執行を通じてコスト縮減、品

指標名 指標説明 現 状 目標値 備 考.

申込共通① 申込共通② 申込共通③ 申込共通④ 申込完了

原子炉等の重要機器を 覆っている原子炉格納容 器内に蒸気が漏れ、圧力 が上昇した際に蒸気を 外部に放出し圧力を 下げる設備の設置

第1回 平成27年6月11日 第2回 平成28年4月26日 第3回 平成28年6月24日 第4回 平成28年8月29日

AII Rights Reserved © 2016 TEPCO Energy Partner 、INC.Printed

(A-2 級) 起動・停止 屋外設置位置 スイッチ操作 MUWC 接続口外側隔離弁 1(A) 弁閉→弁開 屋外接続口位置 手動操作 MUWC 接続口外側隔離弁 2(A) 弁閉→弁開 屋外接続口位置

②出力制御ユニット等