• 検索結果がありません。

Gluster NFS (非推奨)

ドキュメント内 管理ガイド (ページ 115-129)

第 6 章 ボリュームへのアクセスの作成

6.3.2. Gluster NFS (非推奨)

警告 警告

Gluster-NFS は、Red Hat Gluster Storage 3.5 では非推奨とみなされています。

Red Hat では Gluster-NFS の使用を推奨せず、Red Hat Gluster Storage 3.5 以降で の新規デプロイメントでの使用をサポートしません。Red Hat Gluster Storage 3.5 にアップグレードする既存のデプロイメントは引き続きサポートされます。

Linux および NFSv3 標準に対応するその他のオペレーティングシステムは、NFS を使用して Red Hat

Gluster Storage ボリュームにアクセスできます。

注記 注記

Red Hat Gluster Storage 3.2 リリース以降では、Gluster NFS サーバーは、作成される新 規ボリュームについてデフォルトで無効にされます。必要に応じて、新しいボリューム

で Gluster NFS サーバーを明示的に再起動できます。これは、以下のようにクライアン

トでmount -t nfs"" コマンドを実行すると実行できます。

いずれかのサーバーノードで以下を行います。

# gluster volume set VOLNAME nfs.disable off

ただし、既存のボリューム(Gluster NFS サーバーを使用)は、Red Hat Gluster

Storage 3.2 へのアップグレード後も影響を受けず、Gluster NFS サーバーを暗黙的に有

効化します。

オペレーティングシステムで NFSv3 標準の実装が異なると、動作に何らかの問題が発生する可能性が あります。NFSv3 の使用時に問題が発生した場合は、Red Hat サポートに連絡し、Red Hat Gluster

Storage クライアントオペレーティングシステムの互換性に関する詳細情報と、NFSv3 に影響する既知

の問題に関する情報を受け取ります。

NFS ACL v3 に対応しており、NFS クライアントで getfacl および setfacl 操作が可能になります。

glusterFS NFS サーバーのアクセス制御リスト(ACL)を nfs.acl オプションで設定するには、以下のオプ ションを提供します。例:

nfs.acl ON を設定するには、以下のコマンドを実行します。

# gluster volume set VOLNAME nfs.acl on

nfs.acl OFF を設定するには、以下のコマンドを実行します。

# gluster volume set VOLNAME nfs.acl off

注記 注記

ACL はデフォルトで ON です。

Red Hat Gluster Storage には、Network Lock Manager(NLM)v4 が含まれています。NLM プロトコル

により、NFSv3 クライアントはネットワーク全体でファイルをロックできます。NLM は、標準の

fcntl()(POSIX)および flock()(BSD)ロックシステムコールを使用して、クライアント全体のアクセ スを同期させる NFSv3 マウントポイント上で実行されるようにする必要があります。

本セクションでは、NFS を使用して Red Hat Gluster Storage ボリューム(手動および自動)をマウン トする方法と、ボリュームが正常にマウントされたことを確認する方法を説明します。

重要 重要

Red Hat Enterprise Linux 7 では、以下のコマンドを使用して、アクティブゾーンでラン

タイムモードおよび永続モードでファイアウォールサービスを有効にします。

アクティブなゾーンの一覧を取得するには、以下のコマンドを実行します。

# firewall-cmd --get-active-zones

アクティブなゾーンでファイアウォールサービスを許可するには、以下のコマンドを実 行します。

# firewall-cmd --zone=zone_name --add-service=nfs --add-service=rpc-bind

# firewall-cmd zone=zone_name add-service=nfs add-service=rpc-bind --permanent

「Gluster NFS 用の CTDB の設定(非推奨)」

「前提条件」

「Gluster NFS のポートおよびファイアウォール情報」

「Red Hat Gluster Storage Server での CTDB の設定」

「Gluster NFS を使用した Red Hat Gluster Storage ボリュームのマウント(非推奨)」

「Gluster NFS を使用したボリュームの手動マウント(非推奨)」

「Gluster NFS を使用したボリュームの自動マウント(非推奨)」

「NFS を使用したサブディレクトリーの自動マウント(非推奨)」

「Gluster NFS を使用したボリュームのテスト(非推奨)」

「Gluster NFS のトラブルシューティング(非推奨)」

6.3.2.1. Gluster NFS 用の用の CTDB の設定(非推奨)の設定(非推奨)

レプリケートされたボリューム環境では、Samba 共有に対して高可用性とロックの同期を提供するよ うに CTDB ソフトウェア(Cluster Trivial Database)を設定する必要があります。ctdb は、仮想 IP アド

レス(VIP)およびハートビートサービスを追加して高可用性を提供します。

信頼済みストレージプールのノードが失敗した場合、CTDB では、障害が発生したノードがホストして いる仮想 IP アドレスを別のノードが引き継ぐことができます。これにより、提供されるサービスの IP アドレスが常に利用できるようになります。ただし、フェイルオーバーの一部としてロックは移行され ません。

重要 重要

Red Hat Enterprise Linux 7 では、以下のコマンドを使用して、ランタイムモードおよび

永続モードのアクティブなゾーンで CTDB ファイアウォールサービスを有効にします。

アクティブなゾーンの一覧を取得するには、以下のコマンドを実行します。

# firewall-cmd --get-active-zones

アクティブなゾーンにポートを追加するには、以下のコマンドを実行します。

# firewall-cmd --zone=zone_name --add-port=4379/tcp

# firewall-cmd --zone=zone_name --add-port=4379/tcp --permanent

注記 注記

Amazon Elastic Compute Cloud(EC2)は仮想 IP をサポートしないため、このソリュー ションとの互換性はありません。

6.3.2.1.1. 前提条件前提条件

Red Hat Gluster Storage Server で CTDB を設定する前に、以下の手順に従います。

すでに古いバージョンの CTDB(バージョン <= ctdb1.x)がある場合は、以下のコマンドを実行

して CTDB を削除します。

# yum remove ctdb

旧バージョンを削除したら、最新の CTDB のインストールを続行します。

注記 注記

システムが samba チャネルにサブスクライブし、最新の CTDB パッケージを取 得している。

以下のコマンドを使用して、NFS サーバーとして使用されるすべてのノードに CTDB をインス トールします。

# yum install ctdb

ctdb はデフォルトで TCP ポート 4379 を使用します。Red Hat Gluster Storage サーバー間で このポートにアクセスできるようにします。

6.3.2.1.2. Gluster NFS のポートおよびファイアウォール情報のポートおよびファイアウォール情報

GNFS-Client マシンで、以下のコマンドを実行して、firewalld を設定して、statd、nlm、および

portmapper サービスが使用するポートを追加します。

# firewall-cmd --zone=public --add-port=662/tcp --add-port=662/udp \

--add-port=32803/tcp --add-port=32769/udp \ --add-port=111/tcp --add-port=111/udp

# firewall-cmd --zone=public --add-port=662/tcp --add-port=662/udp \

--add-port=32803/tcp --add-port=32769/udp \ --add-port=111/tcp --add-port=111/udp --permanent クライアントマシンで以下の手順を実行します。

以下に示すように、/etc/sysconfig/nfs ファイルを編集します。

# sed -i '/STATD_PORT/s/^#//' /etc/sysconfig/nfs

サービスを再起動します。

Red Hat Enterprise Linux 6 の場合:

# service nfslock restart # service nfs restart Red Hat Enterprise Linux 7 の場合:

# systemctl restart nfs-config # systemctl restart rpc-statd # systemctl restart nfs-mountd # systemctl restart nfslock

6.3.2.1.3. Red Hat Gluster Storage Server でのでの CTDB の設定の設定

Red Hat Gluster Storage サーバーで CTDB を設定するには、以下の手順を実行します。

1. 複製ボリュームを作成します。このボリュームは、ゼロバイトのロックファイルのみをホスト するため、最小サイズのブリックを選択します。複製ボリュームを作成するには、以下のコマ ンドを実行します。

# gluster volume create volname replica n ipaddress:/brick path...N times ここで、

n: Gluster NFS サーバーとして使用されるノード数各ノードは 1 つのブリックをホストする必要

があります。

例:

# gluster volume create ctdb replica 3 10.16.157.75:/rhgs/brick1/ctdb/b1 10.16.157.78:/rhgs/brick1/ctdb/b2 10.16.157.81:/rhgs/brick1/ctdb/b3

2. 以下のファイルの META="all" ステートメントの「all」を新たに作成したボリューム名に置き換 えます。

/var/lib/glusterd/hooks/1/start/post/S29CTDBsetup.sh /var/lib/glusterd/hooks/1/stop/pre/S29CTDB-teardown.sh 例:

META="all"

to

META="ctdb"

3. ボリュームを起動します。

# gluster volume start ctdb

開始プロセスの一環として、S29CTDBsetup.sh スクリプトはすべての Red Hat Gluster

Storage サーバーで実行され、マウント /etc/fstab 用のエントリーを追加し、ボリュームを

Gluster NFS サーバーと共に /gluster/lock すべてのノードにマウントします。また、再起動時

に CTDB サービスの自動起動も可能にします。

注記 注記

特殊な CTDB ボリュームを停止すると、S29CTDB-teardown.sh スクリプトがす べての Red Hat Gluster Storage サーバーで実行され、マウント用の /etc/fstab のエントリーが削除され、/gluster/lock でボリュームをアンマウントします。

4. /etc/sysconfig/ctdb ファイルが Gluster NFS サーバーとして使用されているすべてのノードに 存在するかどうかを確認します。このファイルには、Red Hat Gluster Storage の推奨される

CTDB 設定が含まれています。

5. Gluster NFS サーバーとして使用されているすべてのノードに /etc/ctdb/nodes ファイルを作 成し、これらのノードの IP をファイルに追加します。

10.16.157.0 10.16.157.3 10.16.157.6

ここで一覧表示される IP は、NFS サーバーのプライベート IP です。

6. IP フェイルオーバーを必要とする Gluster NFS サーバーとして使用するすべてのノードで、

/etc/ctdb/public_addresses ファイルを作成し、CTDB が作成する仮想 IP をこのファイルに追 加します。以下の形式でこれらの IP アドレスを追加します。

<Virtual IP>/<routing prefix><node interface>

例:

192.168.1.20/24 eth0 192.168.1.21/24 eth0

7. 以下のコマンドを実行して、すべてのノードで CTDB サービスを起動します。

# service ctdb start

注記 注記

gNFS を使用した ctdb は、ノードレベルの高可用性のみを提供し、NFS サービスの障害

を検出できません。したがって、ノードの実行中に NFS サービスがダウンしても、

CTDB は高可用性を提供しません。

6.3.2.2. Gluster NFS を使用したを使用した Red Hat Gluster Storage ボリュームのマウント(非推奨)ボリュームのマウント(非推奨)

以下の方法のいずれかを使用して、Red Hat Gluster Storage ボリュームをマウントできます。

注記 注記

現在、GlusterFS NFS サーバーは、バージョン 3 の NFS プロトコルのみをサポートしま す。希望するオプションとして、以下のテキストを追加して、nfsmount.conf ファイル /etc/nfsmount.conf でバージョン 3 をファイルのデフォルトバージョンとして常に設定 します。

Defaultvers=3

ファイルが変更されていない場合は、すべての mount コマンド vers=3 で手動で追加し てください。

# mount nfsserver:export -o vers=3 /MOUNTPOINT

前述のセクションで説明する GlusterFS の RDMA サポートは、ブリックと Fuse マウント/GFAPI/NFS サーバー間の通信に重点があります。NFS カーネルクライアントは、引き続き tcp を介して GlusterFS NFS サーバーと通信します。

1 種類のトランスポートで作成されたボリュームの場合は、GlusterFS NFS サーバーとブリック間の通 信はそのトランスポートタイプを介して行われます。tcp,rdma ボリュームの場合は、volume set オプ ションを使用して変更でき nfs.transport-typeます。

「Gluster NFS を使用したボリュームの手動マウント(非推奨)」

「Gluster NFS を使用したボリュームの自動マウント(非推奨)」

ボリュームをマウントしたら、に説明されている手順に従って、マウントされたボリュームをテストす ることができます。「Gluster NFS を使用したボリュームのテスト(非推奨)」

6.3.2.2.1. Gluster NFS を使用したボリュームの手動マウント(非推奨)を使用したボリュームの手動マウント(非推奨)

マウントポイントを作成し、mount コマンドを実行し、Gluster NFS を使用して Red Hat Gluster

Storage ボリュームを手動でマウントします。

1. ボリューム用にマウントポイントが作成されていない場合は、mkdir コマンドを実行してマウ ントポイントを作成します。

2. システムに適した mount コマンドを実行します。

Linux の場合の場合

# mount -t nfs -o vers=3 server1:/test-volume /mnt/glusterfs

Solaris の場合の場合

# mount -o vers=3 nfs://server1:38467/test-volume /mnt/glusterfs

# mkdir /mnt/glusterfs

ドキュメント内 管理ガイド (ページ 115-129)