• 検索結果がありません。

アダプタの LRO バッファのサイズの変更

ドキュメント内 vSphere ネットワーク - VMware (ページ 154-160)

非 SR-IOV モード

VMXNET 3 アダプタの LRO バッファのサイズの変更

VMXNET 3 ネットワークアダプタを使用して、仮想マシン接続のパケット集約のバッファサイズを変更できます。バッ

ファサイズを増やすと TCP ACK 数が減少し、ワークロードの効率が向上します。

手順

1 vSphere Web Client で、ホストに移動します。

2 [管理] タブで、[設定] をクリックします。

3 [システム] セクションを展開し、[システムの詳細設定] をクリックします。

4 Net.VmxnetLROMaxLength パラメータに 1 65535 の値を入力し、LRO バッファサイズをバイト単位で設定 します。

デフォルトでの LRO バッファのサイズは 32000 バイトと等しくなります。

ESXi ホスト上のすべての VMkernel アダプタの LRO の有効化または無効化

ESXi ホスト上の VMkernel ネットワークアダプタで LRO を使用して、着信インフラストラクチャトラフィックのネッ

トワークパフォーマンスを向上させます。

手順

1 vSphere Web Client で、ホストに移動します。

2 [管理] タブで、[設定] をクリックします。

3 [システム] セクションを展開し、[システムの詳細設定] をクリックします。

4 Net.TcpipDefLROEnabled パラメータの値を編集します。

n ホスト上の VMkernel ネットワークアダプタの LRO を有効にするには、Net.TcpipDefLROEnabled 1 に設定します。

n ホスト上の VMkernel ネットワークアダプタのソフトウェア LRO を無効にするには、

Net.TcpipDefLROEnabled 0 に設定します。

5 [OK] をクリックして変更内容を保存します。

VMkernel アダプタの LRO バッファのサイズの変更

VMkernel 接続のパケット集約用のバッファサイズは変更することができます。バッファサイズを大きくして TCP 確認

の数を減らし、VMkernel の効率を高めます。

手順

1 vSphere Web Client で、ホストに移動します。

2 [管理] タブで、[設定] をクリックします。

3 [システム] セクションを展開し、[システムの詳細設定] をクリックします。

4 Net.TcpipDefLROMaxLength パラメータに 1 65535 の間の値を入力し、LRO バッファサイズをバイト単位 で設定します。

デフォルトでの LRO バッファのサイズは 32768 バイトと等しくなります。

Linux 仮想マシンでの VMXNET3 アダプタの LRO の有効化または無効化

ホストの VMXNET3 アダプタで LRO を有効化する場合は、Linux 仮想マシンのネットワークアダプタで LRO サポート をアクティブにして、より大きなバッファに着信パケットを集約するためにゲスト OS がリソースを消費しないようにし ます。

開始する前に

Linux カーネルが 2.6.24 以降であることを確認します。

手順

u Linux ゲスト OS のターミナルウィンドウで、-Kおよびlroオプションを指定して ethtool コマンドを実行し ます。

n LRO を有効にするには、次のコマンドを実行します。

ethtool

-K eth<Y>

lro on

eth<Y> <Y> は、仮想マシンの NIC のシーケンス番号です。

n LRO を無効にするには、次のコマンドを実行します。

ethtool

-K eth<Y>

lro off

eth<Y> <Y> は、仮想マシンの NIC のシーケンス番号です。

Windows 仮想マシンでの VMXNET3 アダプタの LRO の有効化または無効化

ホストの VMXNET3 アダプタで LRO を有効化する場合は、Windows 仮想マシンのネットワークアダプタで LRO サポー トをアクティブにして、より大きなバッファに着信パケットを集約するためにゲスト OS がリソースを消費しないように します。

Windows での LRO テクノロジーは、Receive Side Coalescing (RSC) と呼ばれます。

開始する前に

n 仮想マシンで Windows Server 2012 以降または Windows 8 以降が実行されていることを確認します。

n 仮想マシンに ESXi 6.0 以降との互換性があることを確認します。

n ゲスト OS にインストールされている VMXNET3 ドライバのバージョンが 1.6.6.0 以降であることを確認します。

n Windows Server 2012 以降または Windows 8 以降が実行されている仮想マシンで LRO がグローバルに有効になっ ていることを確認します。「Windows 仮想マシンでの LRO のグローバルな有効化 (P. 156)を参照してください。

手順

1 ゲスト OS のコントロールパネルの [ネットワークと共有センター] で、ネットワークアダプタの名前をクリックし ます。

ダイアログボックスに、アダプタのステータスが表示されます。

2 [プロパティ] をクリックし、VMXNET3 ネットワークアダプタのタイプで [構成] をクリックします。

3 [詳細] タブで、[Recv Segment Coalescing (IPv4)] および [Recv Segment Coalescing (IPv6)] [有効] または [無効] に設定します。

4 [OK] をクリックします。

Windows 仮想マシンでの LRO のグローバルな有効化

Windows 8 以降または Windows Server 2012 以降が実行されている仮想マシン上の VMXNET3 アダプタの LRO を使 用するには、ゲスト OS LRO をグローバルに有効にする必要があります。Windows での LRO テクノロジーは、Receive Side Coalescing (RSC) と呼ばれます。

手順

1 Windows 8 以降または Windows Server 2012 のゲスト OS LRO がグローバルに無効になっているかどうかを 確認するには、コマンドプロンプトで netsh int tcp show global コマンドを実行します。

netsh int tcp show global

このコマンドにより、Windows 8.x OS で設定されているグローバル TCP パラメータのステータスが表示されます。

TCP Global Parameters

---Receive-Side Scaling State : enabled Chimney Offload State : disabled NetDMA State : disabled Direct Cache Access (DCA) : disabled Receive Window Auto-Tuning Level : normal Add-On Congestion Control Provider : none ECN Capability : disabled RFC 1323 Timestamps : disabled Initial RTO : 3000 Receive Segment Coalescing State : disabled

Windows 8 以降または Windows Server 2012 マシンで LRO がグローバルに無効になっている場合は、Receive Segment Coalescing State プロパティが disabled として表示されます。

2 Windows OS LRO をグローバルに有効にするには、コマンドプロンプトで次の netsh int tcp set global コマンドを実行します。

netsh int tcp set global rsc=enabled 次に進む前に

Windows 8 以降または Windows Server 2012 仮想マシンで VMXNET3 アダプタの LRO を有効にします。Windows 仮想マシンでの VMXNET3 アダプタの LRO の有効化または無効化 (P. 155)を参照してください。

NetQueue とネットワーク パフォーマンス

NetQueue は、一部のネットワークアダプタの機能を利用して、個別に処理可能な複数の受信キューのシステムにネッ

トワークトラフィックを配信します。これによって、処理をマルチ CPU に拡張し、受信側のネットワークパフォーマン スを向上させることができます。

ホストでの NetQueue の有効化

NetQueue は、デフォルトで有効になっています。一度無効にした NetQueue を使用するには、再度有効にする必要が

あります。

開始する前に 手順

1 ホストの ESXi Shell で、次のコマンドを使用します。

esxcli system settings kernel set --setting="netNetqueueEnabled" --value="TRUE"

2 esxcli module parameters set コマンドを使用して、NetQueue を使用するように NIC ドライバを構成し ます。

たとえば、デュアルポートの Emulex NIC でこの ESXCLI コマンドを実行して、8 つの受信キューを持つドライバ を構成します。

esxcli system module parameters set -m tg3 -p force_netq=8,8 3 ホストを再起動します。

ホストでの NetQueue の無効化

NetQueue は、デフォルトで有効になっています。

開始する前に

NIC ドライバの構成については、『Getting Started with vSphere Command-Line Interfacesを参照すると理解が 深まります。

手順

1 VMware vSphere CLI では、ホストのバージョンに応じて次のコマンドを使用します。

esxcli system settings kernel set --setting="netNetqueueEnabled" --value="FALSE"

2 NIC ドライバの NetQueue を無効にするには、esxcli module parameters set コマンドを使用します。

たとえば、デュアルポート Emulex NIC で、この ESXCLI コマンドを実行して、1 つの受信キューを備えるドライバ を構成します。

esxcli system module parameters set -m tg3 -p force_netq=1,1 3 ホストを再起動します。

vSphere Network I/O Control 11

vSphere Network I/O Control を使用して、ビジネス上不可欠なアプリケーションにネットワークバンド幅を割り当て

たり、いくつかの種類のトラフィックが共通のリソースで競合する問題を解決したりします。

n vSphere Network I/O Control バージョン 3 について (P. 160)

vSphere Network I/O Control バージョン 3 は、ホスト上の物理アダプタのキャパシティに基づいて、システム トラフィックのバンド幅を予約するメカニズムを導入しています。これにより、CPU およびメモリリソースの割 り当てに使用するモデルと同様に、仮想マシンネットワークアダプタレベルでリソースを詳細に制御できます。

n vSphere Distributed Switch での Network I/O Control バージョン 3 へのアップグレード (P. 161)

Network I/O Control をバージョン 3 に変換せずに vSphere Distributed Switch をバージョン 6.0.0 にアップグ レードしている場合、Network I/O Control をアップグレードすれば、システムトラフィックおよび個々の仮想マ シンへのバンド幅割り当ての拡張モデルを使用できます。

n vSphere Distributed Switch での Network I/O Control の有効化 (P. 162)

vSphere Distributed Switch でネットワークリソース管理を有効にして、vSphere 機能用のシステムトラフィッ クおよび仮想マシントラフィックに対して最小限のバンド幅を確保します。

n システムトラフィックのバンド幅割り当て (P. 163)

シェア、予約、および制限に基づいて、vSphere Fault ToleranceiSCSI ストレージ、vSphere vMotion などに よって生成されるトラフィックに一定量のバンド幅を割り当てるように Network I/O Control を構成できます。

n 仮想マシントラフィックのバンド幅割り当て (P. 166)

Network I/O Control のバージョン 3 では、個々の仮想マシンのバンド幅要件を構成できます。また、仮想マシン

トラフィックの集約された予約からバンド幅を割り当てることができるネットワークリソースプールを使用して、

プールのバンド幅を個々の仮想マシンに割り当てることもできます。

n Network I/O Control の範囲外への物理アダプタの移動 (P. 174)

特定の状況では、Network I/O Control バージョン 3 のバンド幅割り当てモデルから容量の少ない物理アダプタを 除外する必要があります。

n Network I/O Control バージョン 2 の操作 (P. 174)

vSphere Distributed Switch 5.x、および 6.0 にアップグレードされた vSphere Distributed Switch Network I/O Control はバージョン 3 にアップグレードされていない)で、Network I/O Control バージョン 2 のリソース プールモデルを使用して、操作に必要なバンド幅をシステムトラフィックと仮想マシンが受信できるようにするこ とができます。

vSphere Network I/O Control バージョン 3 について

vSphere Network I/O Control バージョン 3 は、ホスト上の物理アダプタのキャパシティに基づいて、システムトラ フィックのバンド幅を予約するメカニズムを導入しています。これにより、CPU およびメモリリソースの割り当てに使 用するモデルと同様に、仮想マシンネットワークアダプタレベルでリソースを詳細に制御できます。

Network I/O Control バージョン 3 の機能では、ネットワークリソース予約とスイッチ全体への割り当てが向上して

います。

バンド幅リソース予約のモデル

Network I/O Control バージョン 3 では、vSphere Fault Tolerance などのインフラストラクチャサービスに関連する システムトラフィックのリソース管理および仮想マシンのリソース管理のために、異なるモデルがサポートされています。

2 つのトラフィックカテゴリには、異なる特徴があります。システムトラフィックは、ESXi ホストに完全に関連付けら れています。環境間で仮想マシンを移行すると、ネットワークトラフィックのルートが変更されます。仮想マシンに、そ のホストに関わらずネットワークリソースを提供するため、Network I/O Control では、仮想マシンに対して、Distributed

Switch 全体で有効なリソース割り当てを構成できます。

仮想マシンに対するバンド幅の確保

Network I/O Control バージョン 3 では、シェア、予約、および制限の構造を使用して、仮想マシンのネットワークア

ダプタにバンド幅をプロビジョニングします。これらの構造に基づいて、十分なバンド幅を確保するため、仮想ワークロー ドが vSphere Distributed SwitchvSphere DRS、および vSphere HA のアドミッションコントロールの影響を受け る場合があります。「仮想マシンバンド幅のアドミッションコントロール (P. 168)を参照してください。

ドキュメント内 vSphere ネットワーク - VMware (ページ 154-160)

関連したドキュメント