• 検索結果がありません。

Oracle Database 11g Release 2 Oracle Real Application Clusters 新機能

N/A
N/A
Protected

Academic year: 2021

シェア "Oracle Database 11g Release 2 Oracle Real Application Clusters 新機能"

Copied!
90
0
0

読み込み中.... (全文を見る)

全文

(1)
(2)
(3)

本資料では、以下の省略表記を使用している箇所があります。

名称

省略表記

Baseboard Management Controller

BMC

Cluster Ready Services

CSS

Cluster Time Synchronization Service

CTSS

Cluster Verification Utility

CVU

Database Configuration Assistant

DBCA

Domain Name Service

DNS

Dynamic Host Configuration Protocol

DHCP

Enterprise Manager

EM

Grid Plug and Play (プロファイル)

GPnP (プロファイル)

Grid Naming Service

GNS

Intelligent Platform Management Interface

IPMI

multicast Domain Name Service

mDNS

multicast Domain Name Service

mDNS

Network Interface Card

NIC

Network Time Protocol

NTP

Oracle Universal Installer

OUI

Oracle Automatic Storage Management

Oracle ASM (ASM)

Oracle ASM Cluster File System

Oracle ACFS (ACFS)

Oracle High Availability Services

OHAS

O

l Cl

t

R

i t

OCR

Oracle Cluster Registry

OCR

Single Client Access Name

SCAN

(4)
(5)
(6)
(7)

従来は、システムごとにサーバーが管理され、リソースの配置は物理サーバーに制限されてい ました そのため RAC デ タベ スのインスタンスが起動する物理サ バ は固定され シ ました。そのため、RAC データベースのインスタンスが起動する物理サーバーは固定され、シ ステムごとに RAC データベースが別々に構築され、管理されていました。 クラスタへのノードの追加作業や構成変更は、ノード固有の情報の指定や更新を全てのノード に対して行う必要がありました。

(8)
(9)
(10)

GPnP プロファイルの詳細について 【 Oracle Clusterware アーキテクチャ】 の資料を参照くだ さい

さい。

Single Client Access Name (SCAN) の詳細については、【 Real Application Clusters (ポ リシーベース管理) 】の資料を参照ください。

(11)
(12)
(13)
(14)
(15)

クラスタ名は作成するクラスタのメンバー・ノードの識別に使用されます。

ネットワークドメインは、node1.oracle.com という名前のノードの場合、oracle.com を指します。GNS を構成する場合、ネットワークドメインとは別に、GNS が管理するサブドメインを用意します(GNS サ ブドメイン)。GNS を構成する場合、クラスタのリソースは GNS サブドメイン内に構成されます。 GNS を構成するには、Oracle Universal Installer (OUI) で以下のように指定します。

(ステップ1) ‘クラスタ用の Grid Infrastructure ソフトウェアのインストールおよび構成’ を選択 (ステ プ2) ‘拡張インスト ル’ を選択 (ステップ2) ‘拡張インストール’ を選択 (ステップ4) ‘GNS の構成’ のチェックボックスにチェック ‘GNS サブドメイン’ と ‘GNS VIP アドレス’ の情報を指定 補足: スタンドアロン・サーバー用の環境では GNS は構成できません。 11g R1 以前からのアップグレードでは、GNS の構成は行えません。

(16)
(17)
(18)

補足:

複数サブネットの環境(複数のネットワーク・リソースを構成する環境)で GNS を構成することはサポ ートしていません。

(19)

GNS を使用したクラスタ内のリソースの名前解決の流れ

① DNS サーバーが GNS サブドメイン内の名前解決のリクエストを GNS に転送

② GNS がリクエストされた情報を得るため(この場合は「node4」というノードの情報)、マルチキャスト ③ 該当する情報を持つ mDNS が GNS に情報を返信

(20)

補足:

複数サブネットの環境で 2 番目以降のネットワークの VIP リソースに対して、 DHCP による動的な IP アドレスの割り当ては行われません。

(21)
(22)

GNS の構成確認、状態確認の結果の例: [grid@node1]$ srvctl config gns -a GNSは有効です。 GNSは、ポート53でDNSサーバーのリクエストをリスニングしています GNSは、ポート5353を使用してmDNSに接続しています GNSステータス: OK ドメインはGNSによってサービスを提供されています: grid.oracle.com GNSバージョン: 11.2.0.1.0 GNS VIPネットワーク: ora.net1.network [grid@node1]$ srvctl status gns GNSはノードnode1で実行中です。 GNSはノードnode1で有効です。

[grid@node1]$ crsctl stat res -t

ora.gns

1 ONLINE ONLINE node1 ora.gns.vip

1 ONLINE ONLINE node1

(23)

GNS を構成している場合、クラスタのリソースは GNS によって内部的に次のような名前で管理され ています。

ノード VIP : <ホスト名>-vip.<GNS サブドメイン> SCAN : <スキャン名>.<GNS サブドメイン>

SCAN VIP : <クラスタ名>-scan[1-3]-vip.<GNS サブドメイン> GNS VIP : <クラスタ名>-gns-vip.<GNS サブドメイン> ノード : <ホスト名>.<GNS サブドメイン>

ノードに対する問い合わせはノードに割り当てられている全ての IP アドレスの情報が返ります

GNS の構成確認、状態確認の結果の例:

[grid@node1]$ nslookup scan.grid.oracle.com Server: 172.20.0.1 Address: 172.20.0.1#53 Non-authoritative answer: Name: scan.grid.oracle.com Address: 172.20.0.174 Name: scan.grid.oracle.com Address: 172.20.0.172 Name: scan.grid.oracle.com Address: 172.20.0.173 Address: 172.20.0.173 [grid@node1]$

(24)
(25)

GNS を構成した場合、クラスタのリソースは、GNS VIP を除き、全て GNS によって名前解決が行わ れます。

GNS VIP、SCAN VIP はホームノードを持たないため、自動フェイルバックの動作はありません。 DHCP を使用した IP アドレスの割り当ては、ノード、またはクラスタ・リソースの起動時に行われます。

NODE VIP、SCAN VIP がフェイルオーバーする場合、フェイルオーバー前の IP アドレスが引き継が れます。 GNS を構成しない場合は、従来までと同様に、DNS や /etc/hosts によって名前解決が行われます。 GNS を構成しない場合(基本構成) タイプ 起動するノード IP アサイン 名前解決 ノード1 パブリック ノード1 固定 DNS ノード1 VIP ノード1(*1) 固定 DNS ノード1 プライベート ノード1 固定 DNS ノード2 パブリック ノード2 固定 DNS ノード2 VIP ノード2(*1) 固定 DNS ノード2 プライベートド プライ ト ノード2ド 固定固定 DNSDNS SCAN VIP1 いずれかのノ ード 固定 DNS SCAN VIP2 いずれかのノ ード 固定 DNS SCAN VIP3 いずれかのノ ード 固定 DNS

(26)

GPnP 関連プロセスの起動の流れ ① OHASD が oraagent を介して GPNPD、MDNSD を起動 ② MDNSD がローカルノードのネットワークインターフェースに割り当てられている IP アドレス を取得し、ネットワーク上の MDNSD に向けて通知 ③ GPNPD がローカルノードの GPnP プロファイルを読み込み ④ GPNPD が MDNSD を介して他ノードの GPNPD の存在を確認し、各ノードの GPnP プロ ファイルで最も新しいものを取得 ⑤ CRS が orarootagent を起動 # 以上は GNS を構成しない場合も共通して行われます。以下の⑦、⑨は GNS を構成してい る場合固有の起動時の動作です。 ⑦ orarootagent が GNSD.VIP リソースと GNSD を起動

⑧ orarootagent が SCAN VIP リソースと NODE VIP リソースを起動 GNS 環境 : DHCP によって VIP 用の IP アドレスを取得

G S 環境 C によ て 用の アドレ を取得

非 GNS 環境 : OLR/OCR から VIP 用の IP アドレスを取得 ⑨ orarootagent が VIP の名前と IP アドレスの情報を GNS に通知

(27)
(28)
(29)
(30)

GNS を使用したデータベースへの接続(専用サーバー構成)の流れ

① SCAN リスナー経由で ORCL サービスへの接続要求

② scan.grid.oracle.com は GNS ドメイン内のリソースであるため、DNS は GNS に名前解決の リクエストを転送

③ GNS が SCAN リスナーのアドレスを解決し、DNS に SCAN VIP の情報を通知 ④ DNS が SCAN VIP の情報をクライアントに通知

⑤ クライアントは SCAN VIP のアドレス、ポート番号を使用し、SCAN リスナーに対して接続要 求を送信 ⑥ SCAN リスナーは ORCL サービスが稼動している接続先情報をクライアントに送信 (接続の リダイレクト) ⑦ クライアントは接続先サーバーのデフォルトリスナーを介してデータベースに接続 GNS に対して行われた名前解決は、DNS サーバー上にキャッシュされます。 (TTL は 120 秒)

(31)

クラスタ・リソースは、クラスタのいずれかのサーバーに配置され、サーバー障害時など、リソー スが起動できない場合はフ イルオ バ するリソ スであることを表しています スが起動できない場合はフェイルオーバーするリソースであることを表しています。 GNS と GNS VIP は、orarootagent によって監視が行われており、ダウンまたは異常を検知し た場合、再起動またはフェイルオーバーが行われます。 GNS/GNS VIP のフェイルオーバーが発生した場合、GNS/GNS VIP はホームノードが存在し ないため、フェイルバックは行われません。 GPnP 関連プロセスのログ

分類

ログの場所

mDNS

<Grid_Home> /log/<hostname> /mdnsd/*

GNS

<Grid_Home> /log/<hostname> /gnsd/*

GPNPD

<Grid_Home> /log/<hostname> /gpnpd/*

OHAS エージェント

<Grid_Home> /log/<hostname> /agent/ohasd/*

CRS エージェント

<Grid_Home> /log/<hostname> /agent/crsd/*

GNS のログレベルの変更 srvctl start gns -l<ログレベル> を使用して GNS を起動することで、ログレベルを変 更することが可能です。デフォルトのログレベルは 0 です。(root.sh で起動時のみ、ログレベル 6 で起動) 最も詳細なログを出力する場合は、6 を指定します。ただし、ログの出力量が多く、CPU も多く 必要とするため、注意が必要です。 ログレベル 5 はログ出力量、CPU 消費量も抑えられます。

(32)
(33)

GNS を構成する場合、少なくとも GNS VIP 用の IP アドレスは固定 IP アドレスとして必要です。 パブリック IP アドレスを DHCP を使用して動的に割り当てる場合、ダイナミック DNS などを使 用して、クラスタ内のノード間の名前解決が行える必要があります。

NIC については、GNS を構成する場合も、GNS を構成しない場合と同様に、少なくとも 2 枚が 必要です。

(34)

GNS サブドメインを別途用意する必要があります。 node1.jp.mycompany.com / node2.jp.mycompany.com の 2 台のマシンを使用してクラスタ を構築する場合、例えば、GNS サブドメインを mycluster.jp.mycompany.com として準備しま す。 また、GNS サブドメインはクラスタを構築するマシンのネットワークドメインの子ゾーンを含むサ ブドメインである必要はなく、上記のマシンに対して、例えば、mycomp.co.jp を GNS サブドメ インとすることもできます。 DNS サーバーには GNS サブドメイン内の名前解決のリクエストを GNS へ転送するための DNS サーバーには、GNS サブドメイン内の名前解決のリクエストを GNS へ転送するための 設定を予め行っておく必要があります。 設定例1) 親ゾーン側で GNS サブドメインに対して権限委譲 GNS サブドメイン : mycluster.jp.mycompany.commycluster.jp.mycompany.com jp.mycompany.com ドメインのゾーンファイルで、mycluster サブドメインに対する NS レコードを作成 設定例2) GNS サブドメインのゾーンに対して forward を指定 GNS サブドメイン : mycomp.co.jpmycomp.co.jp mycomp.co.jp ゾーンに対する名前解決リクエストを forward するよう設定 DNS サーバー、DHCP サーバーの設定例については後述します。

(35)

DHCP サーバーはパブリック・ネットワーク上で稼動している必要があります。DHCP サーバー による IP アドレスの割り当てが行えない場合 NODE VIP/SCAN VIP リソ スの起動が失敗 による IP アドレスの割り当てが行えない場合、NODE VIP/SCAN VIP リソースの起動が失敗 します。

インターコネクトで使用するプライベート IP アドレスも DHCP を使用して動的割り当てを行う場 合は、プライベート・ネットワーク上で DHCP サーバーが稼動している必要があります。

(36)
(37)

クラスタ用 Grid Infrastructure のインストール時の指定例:

補足: /etc/named.conf の options ステートメント内に forwarders 設定をしている場合、GNS サブドメインに適切に転送されない場合があります。

(38)
(39)
(40)
(41)
(42)
(43)
(44)

本資料では、4 ノード (node1, node2, node3, node4) の 11g R2 RAC クラスタ環境に 1 ノ ド ( d 5) を追加するケ スについて ddN d h を使用した手順を説明します ード (node5) を追加するケースについて、addNode.sh を使用した手順を説明します。 インストールユーザー:

Oracle Grid Infrastructure : grid Oracle RAC : oracle

db_name_ : orcl ノード追加を行う場合、以下の作業が完了している必要があります。 • 物理的な接続の確立 • オペレーティング・システムのインストール • グループ/ユーザーとディレクトリの作成 • SSH の設定

クラ タ検証 テ リテ (Cl V ifi i U ili CVU) による確認 • クラスタ検証ユーティリティ (Cluster Verification Utility: CVU) による確認

$ cluvfy stage -post hwos -n node5 [-verbose]

(45)

11g R2 では プライベート・ネットワークに関するパラメータ指定は必要ありません。

また、Oracle Universal Installer の対話モードを使用した Grid Infrastructure の拡張する方法 はありません。

クラスタ検証ユーティリティ (Cluster Verification Utility: CVU) によるノード追加前の確認

$ cluvfy stage -pre nodeadd -n node5 fixup fixupdir fixup_dir]] [-verbose]

クラスタ検証ユーティリティ (Cluster Verification Utility: CVU) によるノード追加後の確認

注意:

*1 現時点 は GNS 環境も 非 GNS 環境と同様に VIP 情報の指定が必要

$ cluvfy stage -post nodeadd -n node5 [-verbose]

(46)
(47)

Enterprise Manager Database Control を使用して、サーバープールの属性変更を行うことも 可能です

(48)

Enterprise Manager Database Control を使用して、クラスタ・データベースへのインスタンス の追加を行うことも可能です

(49)

プロビジョニング・デプロイメント・プロシージャを使用する場合、ソフトウェア・ライブラリが構成さ れている必要があります ソフトウ ア ライブラリの構成は以下の手順で行います れている必要があります。ソフトウェア・ライブラリの構成は以下の手順で行います。 ① 「クラスタ・データベース: ホーム」ページで、「ソフトウェアとサポート」タブをクリックします。 ② 「デプロイメント・プロシージャ・マネージャ」セクションの「ソフトウェア・ライブラリのデプロイとプロビ ジョニング」をクリックします。 ③ 「管理」タブをクリックします。 ④ 「プロビジョニング」ページで、「ソフトウェア・ライブラリ構成」セクションまで下にスクロールします。 ⑤ 「追加」ボタンをクリックし、テキストボックスにソフトウェア・ライブラリのディレクトリの場所を指定し ます。

(50)

Enterprise Manager Database Control によって SCAN リスナーまたはノードの構成が変更さ れたことが検知された場合 “クラスタ”のホ ム画面の“ 般”セクシ ンに再構成アクテ ビテ れたことが検知された場合、“クラスタ”のホーム画面の“一般”セクションに再構成アクティビテ ィの情報が出力されます。 ノードをコマンドラインで追加した場合、新しく追加したノードも Enterprise Manager で管理す る場合、構成を行う必要があります。再構成アクティビティのリンクのナビゲーションに従って、 Enterprise Manager の再構成を行うことが可能です。 また、コマンドラインの emca コマンドを addNode オプションを指定して実行することで同様に 再構成行うことも可能です。

$ <DB_home>/bin/emca addNode db silent DB_UNIQUE_NAME orcl -MODIFY_NODE node5 -SERVICE_NAME orcl

(51)
(52)

本資料では、5 ノード (node1, node2, node3, node4, node5) の 11g R2 RAC クラスタ環境 から 1 ノ ド ( d 5) を削除するケ スの手順を説明します

(53)

Enterprise Manager Database Control を構成している場合、削除するノードを含まないように再 構成します

構成します。

コマンドラインの emca コマンドを deleteNode オプションを指定して実行します。

$ <DB_home>/bin/emca deleteNode db silent DB_UNIQUE_NAME orcl -MODIFY_NODE node5 -SERVICE_NAME orcl

(54)

削除するインスタンスで稼動するサービスを作成している場合、インスタンスを削除する前にサー ビスの構成を削除するインスタンスを含まないように変更します

ビスの構成を削除するインスタンスを含まないように変更します。

Enterprise Manager Database Control を使用して、クラスタ・データベースからインスタンスを削 除を行うことも可能です。

Enterprise Manager Database Control を構成している場合、削除するノードを含まないように再 構成します。

コマンドラインの emca コマンドを deleteNode オプションを指定して実行します。

$ <DB_home>/bin/emca deleteNode db silent DB_UNIQUE_NAME orcl -MODIFY_NODE node5 -SERVICE_NAME orcl

(55)
(56)
(57)
(58)

クラスタ検証ユーティリティ (Cluster Verification Utility: CVU) によるノード削除後の確認

(59)
(60)
(61)
(62)
(63)
(64)

基本的に、クラスタ以外のサーバーとも時刻同期を行う必要がある場合は、NTP を使用した時 刻同期を行うことを推奨します 刻同期を行うことを推奨します。 クラスタ用 Grid Infrastructure をインストールすると、自動的に CTSS デーモンが起動されま す。特に事前の設定は必要ありません。サーバー上で NTP が設定されている場合は、CTSS デーモンは起動するのみで何も処理しません (observer mode)。その場合、システム時刻の同 期は、NTP に任せるためです。CTSS の時刻調整は、Slew モード (時刻の後戻りをしないで 徐々に時刻を調整する) で時刻補正を行います。 クラスタ時刻同期化サービスの注意点 • NTP を利用しない場合は、NTP の設定ファイル (Linux 環境では、/etc/ntp.conf) がないこと を確認してください。NTP が起動していない状況でも、NTP の設定ファイルが存在する場合、 CTSS は時刻同期を行いません (observer mode)。 • クラスタ用 Grid Infrastructure をインストールする前に、一旦、全サーバーで時刻を合わせて おくことをお奨めします。サーバー間で時刻の格差が大きい場合、時刻同期に時間を要するた めです。

(65)

CTSS の稼動モードの確認例: - Active mode - Observer mode [grid@node1]$ crsctl check ctss CRS-4701: クラスタ時刻同期化サービスはアクティブ・モードになっています。 CRS-4702: オフセット(ミリ秒): 0 [grid@node1]$ crsctl check ctss CRS-4700: クラスタ時刻同期化サービスはオブザーバ・モードになっています。

(66)

OUI では、NTP の起動の有無だけではなく、NTP の設定ファイル (/etc/ntp.conf) の有無もチ クしています OUI のチ クでは 以下のケ スは成功します ェックしています。OUI のチェックでは、以下のケースは成功します。 • クラスタを構成する全サーバーで NTP が起動されている、かつ、設定ファイルが存在する ⇒ NTP による時刻同期が有効と判断。CTSS の時刻同期サービスを無効 (observer mode) にする • クラスタを構成する全サーバーで NTP が起動されていない、かつ、設定ファイルも存在し ない ⇒ NTP による時刻同期は無効と判断。CTSS の時刻同期サービスを有効 (active mode) にする チェックに失敗するケースとしては、以下があります。 • 設定ファイルは存在するものの、NTP が起動されていない • サーバー間で NTP の起動や設定ファイルの整合性が取れていない • slew オプション “-x” を指定して起動されていない • slew オプション “-x” は /etc/sysconfig/ntpd で指定します /etc/sysconfig/ntpd の設定例 /etc/sysconfig/ntpd の設定例:

# Drop root to id 'ntp:ntp' by default. OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"

# Set to 'yes' to sync hw clock after successful ntpdate SYNC_HWCLOCK=no

(67)
(68)
(69)

crsctl stop cluster による停止

crsctl stop cluster コマンドを使用して、Oracle Clusterware stack を停止した場合、次のデー モンとエージェント以外が全て停止されます。

• OHAS デーモン • GIPC デーモン • mDNS デーモン • GPNP デーモン

• OHAS エ ジェント (orarootagent oraagent) • OHAS エージェント (orarootagent, oraagent)

OHAS デーモンの起動/停止

OHAS デーモンの起動と停止は、ローカルノードから実行します。リモートノードから行うことが できません。

(70)

パッチの適用時など、–o オプションで指定したホームから起動されるリソースを一括して起動と 停止を行うことができます 停止を行うことができます。 DB_home を指定して実行した場合に起動/停止されるリソース • サービス (svc) • データベース (db) Grid home を指定して実行した場合に起動/停止されるリソース Grid_home を指定して実行した場合に起動/停止されるリソ ス • ディスクグループ (diskgroup) • リスナー (lsnr) • スキャン・リスナー (scan_listener) • スキャン VIP (scan_vip) • ONS (ons) • eONS (eons)eONS (eons) • GNS (gns) • NODE VIP (vip) • ネットワーク (net)

(71)
(72)

サーバーが複数のサブネットのネットワークに接続されている場合は、RAC 11g R2 では、サ ブネ トごとに VIP を作成することが可能になります 1つのサブネ トに 1 つの VIP を構成で ブネットごとに VIP を作成することが可能になります。1つのサブネットに 1 つの VIP を構成で きます。同じサブネットに複数の VIP は構成できません。 セキュリティ要件や負荷分散の観点で、サブネットを分離したい場合に有効です。 ネットワーク・リソース 複数サブネットに対して VIP を作成した際のネットワーク・リソースのステータスは以下のように なります。 $ crsctl status resource –tora.net1.network

ONLINE ONLINE node1 ONLINE ONLINE node2

ora.net2.network

ONLINE ONLINE node1 ONLINE ONLINE node2

デフォルトのネットワーク・リソース 異なるサブネットに VIP を作成した際の ネットワーク・リソース ネットワーク番号 ネットワーク・リソースは、ネットワーク番号を持ちます。Grid Infrastructure インストール時に構 成されるネットワークのネットワーク番号は 1 (デフォルト) です。RAC 11g R2 の新機能で、複 数サブネットに対して、VIP を作成することが可能です。その場合は、サブネットごとにネットワ ーク番号 (2,3…) を割り当て、それに応じたネットワーク・リソース (ora.net(2,3…).network) が 作成されます。

(73)

サービスを作成する際に、-k オプションを指定すると、サービスとそのネットワーク上で稼動す る VIP との依存関係が構築されます パブリ クネ トワ ク障害時に VIP がフ イルオ バ る VIP との依存関係が構築されます。パブリックネットワーク障害時に、VIP がフェイルオーバ ーすると、そのノード上のサービスは OFFLINE (UNIFORM の場合) になります。 リスナーに対するサービスの登録 (PMON による登録) は、サブネットが異なるリスナーに対し ても行われますが、-k オプションで指定したネットワーク以外からそのサービスを使用した接続 が行われないようにしてください。

(74)

ポリシー管理 RAC データベースでの利用について

ポリシー管理 RAC データベースでは、RAC インスタンスの配置先が動的に変わるため、 LISTENER_NETWORKS の LOCAL_LISTENER / REMOTE_LISTENER にクラスタを構成 する全サーバーの VIP をリストする必要があります。

(75)
(76)

11g R2 では、CLUSTER と SERVICE_NAME パラメータが追加されました。

CLUSTER パラメータで Y と指定されている場合、Data Pump のプロセス(ワーカープロセス) を複数のインスタンス上で起動が可能となります。(デフォルト CLUSTER=Y) ※ 実際に複数のインスタンスでワーカープロセスが起動するかどうかは、データ量などによって決定されます。 ※ パラレル・スレーブ・プロセスについては 11g R1 までも、複数ノードで起動する場合がありました。 SERVICE_NAME パラメータを使用することで、サービスが稼動しているインスタンス上で Data Pump の処理が行われるように指定することが可能です。 また、Data Pump を複数のインスタンスで並列実行する場合、ダンプファイルが各ノードからア クセス可能である必要があります。

(77)

user1 と user2 でそれぞれ node1 と node4 から同時に Data Pump を実行した場合の DBA DATAPUMP SESSIONS の出力例

DBA_DATAPUMP_SESSIONS の出力例:

SQL> select * from dba_datapump_sessions order by 1;

OWNER_NAME JOB_NAME INST_ID SADDR SESSION_TYPE --- --- --- --- ---USER1 SYS_EXPORT_TABLE_01 1 36EEF430 DBMS_DATAPUMP USER1 SYS_EXPORT_TABLE_01 1 36D49B1C MASTER USER1 SYS EXPORT TABLE 01 2 36DF361C WORKER USER1 SYS_EXPORT_TABLE_01 2 36DF361C WORKER USER1 SYS_EXPORT_TABLE_01 2 36E951D8 WORKER

USER1 SYS_EXPORT_TABLE_01 3 36E52D4C EXTERNAL TABLE USER1 SYS_EXPORT_TABLE_01 3 36DEE144 EXTERNAL TABLE USER1 SYS_EXPORT_TABLE_01 3 36D4C588 EXTERNAL TABLE USER1 SYS_EXPORT_TABLE_01 3 36CAD438 WORKER

USER2 SYS_EXPORT_TABLE_01 4 36CAFEA4 DBMS_DATAPUMP USER2 SYS_EXPORT_TABLE_01 4 36DE6200 MASTER USER2 SYS EXPORT TABLE 01 4 36E52D4C WORKER USER2 SYS_EXPORT_TABLE_01 4 36E52D4C WORKER

USER2 SYS_EXPORT_TABLE_01 5 36E87DBC EXTERNAL TABLE USER2 SYS_EXPORT_TABLE_01 5 36E3AF80 EXTERNAL TABLE USER2 SYS_EXPORT_TABLE_01 5 36E8D294 EXTERNAL TABLE USER2 SYS_EXPORT_TABLE_01 5 36E52D44 WORKER

14行が選択されました。

SQL> Data Pump のジョブが複数ノードで実行

Worker プロセスが複数ノ ドで起動 Worker プロセスが複数ノードで起動

(78)
(79)

ノード障害やインターコネクト障害など、クラスタからノードを排除する際に、CSS は、LAN 経由

の IPMI ff コマンドで障害ノ ドを強制的に停止させることが可能です これにより よ

の IPMI power off コマンドで障害ノードを強制的に停止させることが可能です。これにより、よ り確実に、早期にノードを排除することができ、ダウンタイムを最小化します。また、CSS により、 power off の後に、power on コマンドも実行されるため、障害ノードは、自動的に再起動されま す。

Intelligent Platform Management Interface (IPMI)

IPMI は、サーバー・プラットフォームの状態 (温度、電圧、ファン、バスなど) 監視や復旧、リモ ート制御を行うための標準インターフェイス仕様です。特定のハードウェアシステムや OS に依ト制御を行うための標準インタ イ 仕様です。特定の ドウ アシ テ や に依 存することなく、遠隔からハードウェアの監視、管理が可能です。

Baseboard Management Controller (BMC)

BMC は、ベースボードに実装されたサーバーから独立した管理チップです。サーバーがダウン した状態からでもシステムを制御することが可能です。IPMI ドライバを利用して、ユーザープロ セスから BMC に IPMI メッセージを送信することで、ハードウェアの監視、管理が可能です。

(80)
(81)

IPMI ドライバがロードされている場合は、デフォルトで、「Intelligent Platform Management I t f (IPMI) を使用します」 にチ クがされます

(82)
(83)

次の OTN (US) のサイトからダウンロード可能です。 http://otn.oracle.com/rac

または

http://www.oracle.com/technology/products/database/clustering/ipd_download_homepage.html

Linux (カーネル 2.6.9 以上) と Windows (Windows Server 2003 Service Pack 以上) プラッ トフォームで使用可能です。 インストールは サーバーとクライアントの 2 つの方法があります インストールは、サーバーとクライアントの 2 つの方法があります。 1) サーバーのインストール クラスタを構成する全てのノードにインストールを行います。 クラスタが node1、node2、node3、node4 で構成されており、node1 をマスターとする 場合の Linux プラットフォームでのインストール例:

$ /crfinst pl -i node1 node2 node3 node4 -b /data/oracrfdb -m node1

2) クライアントのインストール

収集した情報を参照するためにクライアント環境にインストールを行います。 クラスタの一部ではないクライアントマシンにインストールします。

$ ./crfinst.pl i node1,node2,node3,node4 b /data/oracrfdb m node1

$ ./crfinst.pl -g <インストールディレクトリ>

(84)

NODENAME 列のノード名をダブルクリックすると、該当のノードのノード・ビューのウィンドウが 出現します

(85)

DEVICE 列のデバイス名をダブルクリックすると、該当のデバイスのデバイス・ビューのウィンド ウが出現します

(86)
(87)
(88)
(89)
(90)

参照

関連したドキュメント

Vondrák: Optimal approximation for the submodular welfare problem in the value oracle model, STOC 2008,

Adaptive image approximation by linear splines over locally optimal Delaunay triangulations.. IEEE Signal Processing Letters

このマニュアル全体を読んで、Oracle Diagnostics Pack に同梱の Oracle Performance Manager、Oracle Capacity Planner、Oracle TopSessions および Oracle Event

&lt; &gt;内は、30cm角 角穴1ヶ所に必要量 セメント:2.5(5)&lt;9&gt;kg以上 砂 :4.5(9)&lt;16&gt;l以上 砂利 :6 (12)&lt;21&gt; l

6 Baker, CC and McCafferty, DB (2005) “Accident database review of human element concerns: What do the results mean for classification?” Proc. Michael Barnett, et al.,

Views of Kazunogawa Hydroelectric Power Station Dams &lt;Upper dam (Kamihikawa dam)&gt;. &lt;Lower dam

For control of emerged cocklebur, annual morning- glories and other susceptible broadleaf weeds, apply when broadleaf weeds are actively growing and small (see WEED LIST).. 2,4-DB

Oracle の Sun Storage 16 Gb Fibre Channel PCIe Universal Host Bus Adapter (HBA) (パーツ番号 7101674) は、QLogic テクノロジを使用したスタンドアロンの PCIe ロー