9 時系列分析
9.1 時系列分析の基礎概念
時間を通じたデータの変化が確率過程によって生成されているという観点から 分析を進めるのが時系列分析です。様々な要因を分解して議論する分析の仕方と は異なり、確率現象として、それらについて深く踏み込むことを避けて、確率的 な観点で分析するものです。したがって、構造方程式と呼ばれるモデル構築を行 うのではなく、相関がある確率過程間の関係から、その影響関係を評価してゆく ことになります。
9.1.1 時系列における自己相関
時系列分析はデータが確率過程によって生成されるという考え方から構成され る議論です。したがって、自己相関などの変数自身および他との変数との統計的 関係性がが重要な要素です。まず、データ自身の性質を表す自己相関は
γk = Cov[ǫt, ǫt−k] (9.1) で示されます。また、特に自己相関関数として、
ρk = γk
γ0 (9.2)
というものが使われます。この時、系列相関があれば、変数間の相関には2 つの 時点の間の影響も含まれてしまいます。そのため、それらの影響を取り除いたも のが偏相関係数で1、純粋な意味での異なる時点間の変数の関係ということになり ます。なお、偏自己相関係数は
ˇ
ρk = Cov[yt− E(yt|yt−1, yt−2,· · · , yt−k+1), yt−k] (9.3) で示されます。偏自己相関係数の計算は偏相関係数の計算の方法と同じで、条件 で回帰してその残差とyt−kの相関係数を取ればよいでしょう。これらの性質は時 系列分析におけるデータの性質を規定する重要な要素(モーメント) であり、分析 の際の有用な情報になります。
9.1.2 ラグオペレータの使い方
時間を扱う時系列分析において、時点を評価する際に便利な道具としてラグオ ペレータがあります。ラグオペレータはL を使って、
Lxt = xt−1, L2xt = xt−2 (9.4) L0xt = xt, Lpa = a (9.5)
1Partial Correlation なので、日本語では部分相関係数でもいい気はしますが。
と表します。また、△ = (1 − L) と定義しましょう。すると、
△xt = (1 − L)xt = xt− xt−1 (9.6)
△2xt = (1 − L)2x= xt− 2xt−1+ xt−2 = (xt− xt−1) − (xt−1− xt−2) (9.7) となります。これらのオペレータは
B(L) = 1 + β1L1+ · · · βqLq (9.8) と書くことで、
xt+ β1xt−1+ · · · βqxt−q = B(L)xt (9.9) と、簡単に書くことができます。なお、|ρ| < 1 ならば、ラグオペレータを定数の ように扱い、
ρ0ǫt+ ρ1ǫt−1+ ρ2ǫt−2+ · · · = [(ρL)0 + (ρL)1+ (ρL)2+ · · · ]ǫt (9.10)
= 1 − (ρL)
∞
1 − ρL ǫt = ǫt
1 − ρL (9.11) とすることができ、
xt = ρxt−1 + ǫt (9.12)
というモデルを考えると、
(1 − ρL)xt = ǫt (9.13)
xt= ǫt
1 − ρL (9.14)
= ρ0ǫt+ ρ1ǫt−1 + ρ2ǫt−2+ · · · (9.15) と書き直せます。AR モデルの MA 表現もラグオペレータで楽になります。なお、 差分オペレータに対して、
xt− ρxt−1 (9.16)
と呼ばれる差分形式は、部分差分(partial diffrences)、準差分 (quasi diffrences)、 疑似差分(presudo diffrences) などと呼ばれることがあります。
また、任意のラグオペレータの分数、 A(L)
B(L) =
1 + α1L1+ α2L2· · ·
1 + β1L1+ β2L2· · · (9.17) も、分数を伴わないラグオペレータ
C(L) = γ0L0 + γ1L1+ γ2L2· · · (9.18)
に書き直すことができます。なお、計算上は分子はそれほど難しい計算ではない と思いますから、分母の計算だけを確認しましょう。すなわち、
1 B(L) =
1
1 + β1L1 + β2L2· · · (9.19) の計算を考えましょう。
D(L) ≡ 1
B(L), D(L) = δ0L
0+ δ
1L1+ δ2L2· · · (9.20) と置くと、
B(L)D(L) = 1 (9.21)
になることがわかります。そうすると、
B(L)D(L) = (1 + β1L1+ β2L2· · · )(δ0L0+ δ1L1+ δ2L2· · · ) = 1 (9.22) なので、係数を比較してみましょう。なお、βNはすでに値が得られていることに 注意して、
δ0L0 = δ0 = 1 (9.23)
(δ0β1+ δ1)L1 = 0 ⇒ δ1 = −β1 (9.24) ...
と繰り返し計算してゆくことで、係数が得られることになります。このようにす れば、どのようなARMA も MA 表現、AR 表現に書き直すことができるのです。
9.1.3 誤差項に関する仮定の時系列への拡張
なお、すべての説明変数の条件付期待値が0 を要請する、
E[ǫtX] = 0 (9.25)
はきついことも考えられます。たとえば、時系列分析などでは、
E[ǫtxt+s] = 0, s > 0 (9.26) という条件までは要請せず、代わって、
E[ǫtxt−s] = 0, s > 0 (9.27)
E[ǫt|xt] = 0 (9.28)
E[ǫrt|xt] = µr <∞, r ≥ 2 (9.29)
を考えて見ましょう。この場合には、(9.25) 式は利用できないので、一致性を利用 するだけになります。
また、時系列分析の場合には標本が独立であるという仮定が崩れてしまいます。 こうなると、説明変数の性質にいろいろな問題が出てきます。そこで、旧来の仮 定の代わりに、
1 T − sE
T
t=s+1
xtx′t−s
= 1 T − s
T t=s+1
Extx′t−s (9.30)
= Q(s) < ∞, s > 0 (9.31) を仮定しましょう。なお、この仮定は後に示すように、期待値の無限和が有限と いうことは相関関係が発散しないという定常性と時点間の関係がその時間の差だ けであるというエルゴード性を仮定していることになります2。これがいえれば、
plimX
′X
N = ˜Ψ (9.32)
になるので、一致性を保証できます。
9.2 一変量時系列モデル
具体的にデータの確率的構造を見てゆくことをしましょう。
9.2.1 AR(p) モデル
それ自身の変数のラグとして表現できるモデルを
yt= ψ1yt−1+ ψ2yt−2+ ψ3yt−3+ · · · + ψpyt−p+ ǫt (9.33) と表します。この時、
(1 − ψ1L− ψ2L2− ψ3L3− · · · − ψpLp)yt= ǫt (9.34) であるため、
yt= ǫt
(1 − ψ1L− ψ2L2− ψ3L3 − · · · − ψpLp) (9.35) と表わせ、次に述べるMA(∞) で表現できます。これを AR モデルの MA 表現と いいます。したがって、モデルが全く別個のものではないことも分かるでしょう。
2Hayashi(2000) などでは最初に仮定して議論しています。最初に仮定してもいいのですが、そ れを話すと時系列の概念を話す必要があり、順序が悪いので、この講義ではこの形を取りません。
9.2.2 MA(q) モデル
それ自身の誤差で表現できるモデルを
yt= φ1ǫt−1+ φ2ǫt−2 + φ3ǫt−3 + · · · + φqǫt−q+ ǫt (9.36) と表します。こちらも、
yt
(1 − φ1L− φ2L2 − φ3L3− · · · − φqLq) = ǫt (9.37) と表わせ、先に述べたAR(∞) で表現できます。これを MA モデルの AR 表現とい います。こちらも、AR モデルと同じ事がいえます。
9.2.3 ARMA(p, q) モデル
AR モデルと MA モデルを混ぜた ARMA(p, q) モデルもあり、 yt= ψ1yt−1+ ψ2yt−2+ ψ3yt−3+ · · · + ψpyt−p
+ φ1ǫt−1+ φ2ǫt−2 + φ3ǫt−3+ · · · + φqǫt−q+ ǫt (9.38) で表現されます。こちらは
yt
(1 − φ1L− φ2L2 − φ3L3− · · · − φpLp) =
ǫt
(1 − ψ1L− ψ2L2− ψ3L3− · · · − ψqLq) (9.39) であるため、AR(∞) でも、MA(∞) でも表現できます。なお、ytが平均0 の共分 散定常確率過程であれば、
yt=
p i=1
γiyt−i+
∞ j=1
δjǫt−j (9.40)
で表現され、かつ
∞
j=1
δj2 <∞ (9.41)
であることが知られています。これをWold の分解定理と呼びます。
9.3 多変量時系列モデル
一変量時系列モデルはデータの性質を見たり、予測に使ったりすることが多い といえます。しかし、通常は理論的な含意を見るために、変数間の性質を見るの が普通です。そこで必要になるのは多変量時系列モデルです。
9.3.1 ベクトル(多変量) 自己回帰モデル
多変量でも時系列分析は可能で、多変量自己回帰モデル(VAR: Vector Au- toregression Model) は時系列分析でも非常によく使われる手法です。モデルは yt= β0+ B1yt−1+ B2yt−2+ · · · + +Bryt−r+ ǫt (9.42)
= β0+ B1(I + ˜B2L+ ˜B3L2+ · · · + ˜BrLr−1)yt−1+ ǫt (9.43) で表されます。なお、 ˜BN = B
−1
1 BNです。なお、行列表記でもラグオペレータを 同様に定義すれば、VAR モデルもベクトル移動平均モデル (VMA モデル) として 表現できるでしょう。したがって、多変量でも相互の表現に置き換えられること が分かります。VAR モデルは変数間の関係や影響度を測ることが中心的な課題と なります。VAR モデルで行うテーマはグレンジャー因果性の検定とインパルス応 答関数による評価です。それらについてみてゆきましょう。
9.3.2 グレンジャー因果性
まず、VAR モデルを 2 つの変数に分解して、
ytA yBt
=
B1,aa B1,ab
B1,ba B1,bb
yt−1A yt−1B
+ · · · +
Bp,aa Bp,ab
Bp,ba Bp,bb
yt−pA yt−pB
+
ǫAt ǫBt
(9.44) というものを考え、ytAという変数について、Bs,ab= 0 という仮説検定を考えます。 この制約を課したときとそうでないときの残差を利用して、尤度比検定を行いま す。方法は残差の共分散行列をそれぞれ、S0, S1としましょう。それを
LR = T (ln |S1| − ln |S0|) (9.45) で評価します。T は標本数です。なお、0 制約としたのと変わらないので、自由度は 制約の数になります。この時、制約が意味を持つという帰無仮説が棄却されれば、 この変数はなくてはならないものであることがわかります。これをグレンジャー の意味で因果性がある(Granger Causarity がある) といいます3。ただ、グレン ジャーの意味で因果性という意味は過去のある変数が被説明変数と有意に相関が あるということを示しているにすぎず、理論的な根拠やその構造がどうなってい るかを示したものではありません。過去から未来への因果性を示しているのです が、逆の因果性等は示していません。
なお、尤度比をF 検定の一つの形式として考えれば、t 検定で考えてもいいで しょう。その意味ではt 検定の帰無仮説が棄却されれば因果性がないといえます。 尤度比検定であることから、これを援用するとラグ数の増減や不足変数の確認な どにも利用できます。
3
係数行列を一括して評価するためブロック外生性があるともいいます。
9.3.3 インパルス応答関数と分散分解
変数の間の相関を示すのは、グレンジャー因果性以外に変数の影響を直接計測 する方法があります。VAR モデルにおいて、
yt = β0+ B1yt−1 + · · · + Bpyt−p+ ǫt (9.46) [I − D(L)]yt = β0+ ǫt (9.47) yt = [I − D(L)]−1β0+ [I − D(L)]−1ǫt (9.48) となります。この時のǫi,tにショックを与え、その他およびそれ以降のすべての誤 差項を0 とおいたときの挙動を見るのがインパルス応答 (Implus Response) 関 数です。これを純粋に評価することもできますが、この方法では構造を考慮して いないとの批判があります。そのため、影響関係の順序だけを規定した分散分解 と呼ばれる方法があります。これは
Υyt= α0+ A1yt−1+ · · · + Apyt−p+ ut (9.49) というモデルの誘導形だと考える方法です。この時、Υ の決め方が問題になりま すが、Υ を三角行列とすれば、影響がドミノ式に広がっていると考えることがで きます。ただしモデルを制約しているわけではないので、時系列分析の枠組みを 守っているともいえます。また、
ut = Υ−1ǫ (9.50)
なので、E[utu
′
t] = I と仮定するので、
utu′t= Υ−1ǫǫ′Υ′−1 ⇒ ΥΥ′ = ǫǫ′ (9.51) を三角行列の性質から求めることになります。そのとき使う計算方法はコレスキー 分解です。ただし、この定式化も順序を決めるという意味で恣意的という批判が なされ、逆に理論的に基づいた制約を識別性の条件の中で満たした
ut = Υ−1ǫ (9.52)
を最尤推定する構造型VAR(SVAR: Structural VAR) と呼ばれるものも行わ れています。これらは時系列分析から構造型分析への接近として位置づけられる でしょう。
9.4 誤差項に関する性質に関する検討
9.4.1 条件付不均一分散自己回帰過程 — ARCH モデル
ランダムウォークは分散に関する仮定がありません。通常は分散が一定として 議論をしますが、それが成立しないこともあります。そのとき、utが均一分散か
つ系列相関がないとして、条件付不均一分散をつ誤差項を ǫt = ut
σ2t (9.53)
というようにモデル化しましょう。σt2は分散を決める変数であり、 σt2 = a0+
p i=1
biǫ2t−i (9.54)
のように定義しましょう。これを自己回帰過程(ARCH: Autoregressive Con- ditional Heteroskedastic Process) といい、ARCH(p) と書きます。また、一般 化ARCH(GARCH: Generalized ARCH) モデルとして、GARCH(p, q) で示 される
σt2 = a0+
p i=1
biǫ2t−i+
q j=1
cjσt−j2 (9.55)
と書きます。ARCH よりも広範な不均一分散を取り込むことができます。株式市 場や金融市場でその価格のボラティリティが過去のショックに影響を受ける場合の 定式化として示されることが多い定式化です。
詳しい手続きは述べませんが、この不均一分散の推定を行った上で、それを調 整したFGLS 推定や最尤推定、GMM 推定などを行うことになります。
9.4.2 系列相関に関する検討
誤差項の系列相関はこのモデルでは検討される必要はあるのでしょうか。それ を考えるために、
yt= B(L)yt−1+ C(L)ǫt−1 + ǫt (9.56) を考えてみましょう。もし、系列相関を示すモデルとして、
ǫt= D(L)ǫt−1+ ut (9.57) ǫt− D(L)ǫt−1 = ut (9.58)
D(L)ǫ˜ t= ut (9.59)
であれば、
D(L)y˜ t= ˜D(L)B(L)yt−1+ ˜D(L)C(L)ǫt−1 + ˜D(L)ǫt (9.60)
= ˜D(L)B(L)yt−1+ ˜D(L)C(L)ǫt−1 + ut (9.61)
⇒ yt= E(L)yt−1+ F (L)ǫt−1+ ut (9.62) として、書き直すことができます。したがって、(9.62) 式に見合うだけの、十分な ラグを取っていれば、系列相関はなくなるのです。その意味では、時系列分析で系 列相関が起きるのは定式化の間違いに起因しているという考え方もできるのです。
9.5 実際の推定に関して
実際の推定の際には分析をしたい変数を選択して、そのデータ生成過程を特定 するための推定を行えばよいことになります。主に統計パッケージを使いますの で、詳しい計算の仕方はそこで学ぶようにしてください。なお、推定する際には AIC 基準等を用いて、ラグを決定します4。
また、自己相関と偏自己相関を計算するとAR(p)、MA(q)、ARMA(p, q) の識別 が可能です。なお、自己相関はAR(p) なら徐々に減衰、MA(q) なら q 以降相関が 無くなってしまいます。ARMA(p, q) ならば、徐々に減衰してゆきます。偏自己相 関はAR(p) なら p 以降相関が無くなってしまい、MA(q) なら徐々に減衰してゆき ます。ARMA(p, q) ならば、徐々に減衰してゆきます。これらの性質を利用して、 モデルの特定を行います。
9.6 安定条件と反転可能性
AR モデルおよび VAR モデルを、ytをm× 1 として、
yt
yt−1 . .. yt−r
=
B1 B2 · · · Br
I O
. ..
O I
yt−1
yt−2 . .. yt−r−1
+
ǫt
0
(9.63)
⇒ yt= Cyt−1 + et (9.64) のように示してみましょう。この時、C をコンパニオン行列と呼びます。(9.64) 式を yt= Cyt−1+ et (9.65)
(1 − CL)yt= et (9.66)
yt= (1 − CL)−1et (9.67) yt= et+ C1et−1+ C2et−2+ C3et−3· · · (9.68) で示されます。この時、C を考えてみましょう。T が増えるにつれ、CT の要素全 てが無限大になってゆくと、無限和であることから、ytが無限大になってしまい ます。したがって、T が増えるにつれ、CT の要素全てが0 になってゆく必要があ ります。C は非特異なので、C = G′ΛG に固有値分解できるので、固有値の行列 であるΛT がT を無限大にした際に0 に落ちてゆくことを意味します。ΛT が対角
4Box=Jenkins によるモデルの同定法もあり、こちらは時系列のデータ変動を理解するには有 用な方法です。しかし、手続きが煩雑であることや熟練が必要なことなど、この講義で扱い切れま せん。したがって、AIC および SBIC による情報量基準を用いないで、推定を行ってみたい場合に は専門の書籍に当たることを勧めます。なお、情報量基準は機械的ではあるものの、非常にクリア に選ぶべきモデルを示してくれます。
行列であることは固有値分解であることから直ちにわかりますから、その対角要 素が1 より小さいことが条件となります。
では、C の固有値が1 より小さくなる条件を見てみましょう。固有値は
|C − λI| =
B1− λI B2 · · · Br
I −λI O
. .. ...
O I −λI
=
B1− λI B2+ λ(B1− λI) · · · Br
I 0 O
. .. . ..
O I −λI
(9.69)
=
B1− λI B2+ λ(B1− λI) · · · Br+ λBr−1+ · · · + λr−1B1− λrI
I 0 O
. .. . ..
O I 0
= 0
(9.70)
⇒ |Br+ λBr−1+ λ2Br−2+ · · · + λr−1B1− λrI| = 0 (9.71) となるλ ですから、λ が全て1 より小さいことが条件となります5。この時固有値 の数はmr 個となります。通常は ytが1 変量である場合か、ラグが一つの場合で 利用されることが多いでしょう。
9.7 非定常確率過程 — 概念的理解と単位根の検出、その対応
9.7.1 定常性と非定常性
定常性と非定常性を区分するのに必要な概念を学んでみましょう。
エルゴード性 定常過程E[xt] = µ において、1 時点の期待値と、無限時間繰り返 し試行した結果が一致、すなわち、
1 T
T t=1
xt
−→ µa.s. (9.72)
となるときエルゴード性(Ergodic) をもつといいます。なお、この際注意すべき 点は、自己相関があろうがなかろうが、定常過程であれば、このような性質がい えることを主張しているのです。この時、定常性があることを強調するため、定 常エルゴード性を持つということもあります。
5
モニックな多項式の行列と呼ぶこともあります。
9.7.2 定常性の種類
データの期待値の安定性を定常性と呼びます。なお、定常性には、強定常性、弱 定常性、非定常性の3 つがあります。なお、特殊な例なのですが、強定常性は弱定 常性ではありません。ある条件の下では強い概念になり得ますが、その条件以外 では弱定常性の性質を満たさないことが知られています。
強定常性 N 個の任意の時点での確率変数 xt1, xt2, xt3,· · · , xtN について、その密
度関数の性質が
f(xt1, xt2, xt3,· · · , xtN) = f (xt1+τ, xt2+τ, xt3+τ,· · · , xtN+τ) (9.73) となるとき、強定常性(Strict Stationarity) といいます。
弱定常性(共分散定常性) よく使われる定常性の性質は弱定常性 (Weak Sta- tionarity) です。その条件は、
1. E[yt] は t の関数ではない 2. V ar[yt] は t の関数ではない
3. E[yt, ys] は t, s の関数ではなく、t − s の関数である になります。
非定常性 強定常性でも、弱定常性でもない場合を指します。
9.7.3 トレンド過程と和分過程 — トレンド定常と差分定常
レベルデータ自身が定常ではなくても、その差が定常である場合があります。 トレンド定常 最も単純な非定常過程としては、トレンド過程があるでしょう。ト レンド過程は安定的な成長過程を示すトレンドを説明変数に含み、
xt = β0+ β1t+ ǫt (9.74) で表されます。このような確率過程を確定トレンド定常過程(TSP: Trend Sta- tionary Process)と呼びます。
差分定常 非定常確率過程で、トレンド定常とは異なる形の時系列過程として、
xt= xt−1+ ǫt (9.75)
xt− xt−1 = ǫt (9.76)
や、ドリフト付きランダムウォークの
xt= β0+ xt−1+ ǫt (9.77) xt− xt−1 = β0+ ǫt (9.78) および、
xt= β0 + β1t+ xt−1+ ǫt (9.79) xt− xt−1 = β0 + β1t+ ǫt (9.80)
△xt− △xt−1 = △2xt = β1+ ǫt− ǫt−1
ut
= β1+ ut (9.81)
というものを考えることができるでしょう。これを、データ生成過程(DGP: Data Generating Process) と呼びます。
なお、和分を特徴づける差分は
△xt = xt− xt−1 (9.82)
△2xt = △xt− △xt−1 = (xt− xt−1) − (xt−1− xt−2) (9.83) のように複数の種類があります。この時、△xt,△2xt,· · · , △Nxtが定常であれば、 それぞれ、I(1), I(2), · · · , I(N) と書いて、和分過程または差分定常と呼びます。
9.7.4 和分定常の詳細
マルチンゲール性 過去の影響を受ける確率過程があるとします。その中でも、期 待値がその一期前にしか依存しない場合、マルチンゲール性(Martingale) があ るといいます。すなわち、
E(xt|xt−1, xt−2, xt−3,· · · , x1) = xt−1, t≥ 2 (9.84) である時です。
ランダムウォーク ランダムウォーク(Random Walk) とは時間毎の変化分が過 去に依存しない、期待値0 の確率変数であることです。このランダムウォークはマ ルチンゲールとの対応で考えることができます。すなわち、マルチンゲールは期 待値が過去の値に依存するだけであるとしています。ということは、変化分を確
率変数とすれば、その和として考えることができるのです。変化分をdt, E[dt] = 0 とすると、
xT = dT + dT −1+ · · · + d1 (9.85) となります。そのとき、
E(xt|xt−1, xt−2, xt−3,· · · , x1) = E(dT + dT −1+ · · · + d1|dt−1, dt−2, dt−3,· · · , d1) (9.86)
= dT −1+ · · · + d1 = xt−1 (9.87) となるので、ランダムウォークはマルチンゲール性と対応関係を持っていること がわかります。なお、
Cov[dT, dT −i] = 0, i≥ 1 (9.88) この時、
dT = xT − xT −1 (9.89)
をマルチンゲール差分過程(m.d.s. : martingale difference sequence) といい ます。
9.7.5 和分移動平均自己回帰過程
差分定常のモデルの自己回帰モデルは一般的に
△yt= α + β1△yt−1+ · · · + βp△yt−p+ ǫ + γ1ǫt−1+ · · · + γqǫt−q (9.90)
= α + B(L)yt−1+ C(L)ǫ (9.91) と書きます。これを和分移動平均自己回帰(ARIMA: Autoregressive Integrated Moving Average) モデルと呼び、ARIMA(p, q) と書きます。
9.7.6 単位根
m.d.s. をはじめとする、非定常 DGP の特徴は
xt = β0+ β1t+ β2xt−1+ ǫt (9.92) とするとき、β2 = 1 で示されるかどうかに集約できます。β1 = 0 であれば、m.d.s. になります。したがって、これらをF 検定または t 検定すればよいように思います が、最小二乗推定量がβ
∗
2 = 1 に近くなると真の値よりも小さな値を推定する (いわ ゆる、下方バイアス) があることが知られており、正しく推定できません。これを 検定する手法が必要になります。なお、β2 = 1 となることを単位根 (Unit Root) を持つといいます。これは時系列の安定性条件となる固有根が1 となることから 来ています。
9.7.7 Augmented Dickey-Fuller 検定
単位根を確認する方法として最も基本的な考え方は
xt− xt−1 = β0+ β1t+ (β2− 1)xt−1+ ǫt (9.93)
△xt= β0+ β1t+ γxt−1+ ǫt (9.94) のγ を確認することです。通常の t 統計量として計算される統計量を用いて、標本 の大きさをもとに、そして、(ドリフト項を意味する) 定数項の有無、(時間的な趨 勢を示す) トレンド項の有無を条件として、Dickey-Fuller が示した確率分布表を利 用することになります。これを、Dickey-Fuller 検定 (DF 検定) といいます。
ただし、Dickey-Fuller 検定には欠点があります。それは誤差項 ǫtに系列相関が
ある場合に、その検定が正しく行われなくなることです。それを解消する方法と しては、時系列分析の系列相関の意義に立ち返って、十分なラグを設定すること で解消することになるでしょう。すなわち、D(L)ǫt = utとすれば、
xt= β0+ β1t+ β2xt−1+ ǫt (9.95) D(L)xt= D(L)β0 + D(L)β1t+ D(L)β2xt−1+ D(L)ǫt (9.96)
△xt= ˜β0+ ˜β1t+ ˜γxt−1+ ˜D(L)△xt+ ut (9.97) となります。この時、
D(L)xt−1 = xt−1 − δ1xt−2− δ2xt−3· · · − δp−2xt−p−1− δp−1xt−p (9.98) ですが、
xt−1− δ1xt−2− δ2xt−3· · · − δp−3xt−p−2− δp−2xt−p−1− δp−1xt−p (9.99)
= xt−1 − δ1xt−2− δ2xt−3· · · − δp−3xt−p−2− (δp−2+ δp−1)xt−p−1− δp−1△xt−p
(9.100)
= xt−1 − δ1xt−2− δ2xt−3· · ·
− (δp−3+ δp−2 + δp−1)xt−p−2− (δp−2+ δp−1)△xt−p−1− δp−1△xt−p
(9.101)
... (9.102)
= [1 − (δ1+ · · · + δp−1)]xt−1− (δ1+ · · · + δp−1)△xt−2− (δ2+ · · · + δp−1)△xt−3· · ·
− (δp−3+ δp−2 + δp−1)xt−p−2− (δp−2+ δp−1)△xt−p−1− δp−1△xt−p
(9.103) となるので、
˜
γ = β2[1 − (δ1+ · · · + δp−1)] = β2
1 −
p−1 i=1
δi
− 1 (9.104)
であり、˜γ = 0 となるかどうかを検定すればよいことになります。この検定は Dickey-Fuller 検定を包含する検定で、補強された Dickey-Fuller 検定 (ADF 検 定: Augmented Dickey-Fuller 検定) といいます。
9.8 非定常確率過程 — 2 変数間の関係に関する概念
9.8.1 共和分
時系列データの中でも、1 次の和分過程 (I(1)) を持つ変数がある一定の関係を持 つ場合があります。このような2 つの変数を xt, ytとすると、
yt= β0+ β1xt+ ǫt (9.105) で表すことを考えてみましょう。これは、
ǫt = yt− (β0+ β1xt) (9.106) というものを考えましょう。増分を表現すると、
[ǫt+ △ǫt+1] = [yt+ △yt+1] − (β0+ β1[xt+ △xt+1]) (9.107) になり、(9.107) 式から (9.106) 式を引くと、
△ǫt+1 = △yt+1− β1△xt+1 (9.108) となります。この時、△ǫt+1は△yt+1− β1△xt+1で示される確率過程であることが わかり、ǫtも和分過程であることがわかります。この時、
△yt− β1△xt>0, △yt+i− β1△xt+i >△yt− β1△xt, i >0 (9.109) という場合を考えてみましょう。こうなると、
E[△ǫt] = 0, △ǫt+1 >△ǫt (9.110) となります。これは誤差項が非定常確率過程であることを意味します。誤差項が 非定常な確率過程であるようなモデルは通常考えません。したがって、このよう な確率変数間の関係(こちらの方が一般的ですが) は定式化できません。ただ、中 には
E[△yt− β1△xt] = 0 (9.111) となる確率過程も存在します。この時、2 つの変数はショック ǫ∗がなければ、定数 β0∗, β1∗で結ばれる
yt= β0∗+ β1∗xt (9.112)
という関係を持っていることを意味します。このように、変数がたとえ和分過程 であっても、ある関係式で示すことができるのを、共和分(Cointegration) と呼 びます。なお、
yt= β0+ β1x1,t + β2x2,t+ β3x3,t+ · · · + βkxk,t+ ǫt (9.113) のように多くの変数間の関係を定義することも可能です。これらを含めて、
ǫt = yt− (β0+ β1x1,t + β2x2,t + β3x3,t + · · · + βkxk,t) (9.114) と表記して、分析することもできます。ǫtは、(9.112) 式に示される均衡関係から の乖離として、均衡誤差(equilibrium error) と呼びます。なお、
1 −β0 −β1 · · · −βk
(9.115) を共和分の関係を示す共和分ベクトル(Cointegrating Vector) といいます。よ り拡張されたモデルとして、ytを1 × M とする
ǫt = γ′yt− β′xt (9.116) というものまで包含して議論ができます。このとき、共和分ベクトルの数はM− 1 を超えることができないことがわかっています6。ここでの共和分ベクトルの数を 共和分ランク(Cointegration Rank) と呼びます。
9.8.2 共和分の背景的理由
共和分は変数間の安定関係を見る分析です。ただし、共和分関係がなくとも、
yt= x′tβ+ ǫt (9.117)
において、xt, ytが単位根を持つデータの下では、データの特性という理由だけで それらの係数が有意に出てしまいます。これを、見せかけの相関(spurious cor- relation) と呼びます。しかし、これは長期的にみれば乖離してしまう相関であり、 本来は関係のないのだが統計的推測上起きてしまう現象であり、排除する必要が 生まれます。通常の推定は、和分関係を消した、定常過程を前提とした分析を行 います。和分関係のまま推定する場合は共和分だけが、その意味を持つことにな ります。したがって、非定常過程でかつ、共和分でもないデータを推定することは 見せかけの相関だけを分析していることになり、本質的な意味自身が問題視され るのです。なお、このモデルはともに単位根を持っているので、推定が果たして うまくゆくのか疑問に感じるのですが、実は超一致性(Super Consistency) と 呼ばれる通常の一致性よりも強い(速い) 一致性を持つことが知られています。ま た、内生性もここには存在しないことが知られています。
6M 個の変数があって、線形結合されているということは、少なくとも一つの ytはその線形結 合で生成されていることになることから、わかるでしょう。
9.8.3 共和分関係の検出
共和分関係を持つと考えられるモデルの一般形
γ′yt= β′xt+ ǫt (9.118) を考えてみましょう。このままでは推定しにくいので、一つの変数yi,tの共和分を 調べててみましょう。すなわち、
yi,t= ˜γ′yt+ ˜β′xt+ ˜ǫt (9.119) というモデルで考えてみましょう。この推定から得られた ˆ˜ǫtを利用して、Engle- Granger 検定
ˆ˜ǫt = ωˆ˜ǫt−1 + ut (9.120)
や、誤差項の自己相関を仮定した拡張型Engle-Granger 検定
△ˆ˜ǫt = ωˆ˜ǫt−1+ φ1△ˆ˜ǫt+ · · · + ut (9.121) で行うことになります。また、VAR モデルを利用して、
yi,t= B1y1,t−1+ B2y1,t−2+ · · · + ǫt (9.122)
から、ˆǫtを利用する仮説検定として、Johansen 検定があります。
9.8.4 誤差修正モデル
共和分関係にある変数を含んだモデルの推定は通常の和分過程の変数の推定と は異なる方法を用います。通常の和分過程の場合には階差をとることで分析がで きますが、共和分を持つ変数にはこれに加え、共和分を実現させるために変数間 の関係を安定化させる項を加えます。すなわち、
△yt= β′zt+ γ△xt+ λ(yt−1− θxt−1) + ǫt (9.123) で推定するのです。なお、定常な確率過程から生み出される外生変数ztと共和分 で非定常過程な変数xt, ytがモデルに加えられています。このモデルを誤差修正モ デル(ECM: Error Correction Model) といいます。このモデルを推定するこ とで、共和分関係を評価することができるのです。なお、ECM モデルの有用な点 は、短期的な変数の乖離を調整して長期的関係を安定化させている、階差により階 差を取る前の非定常性からくる問題を緩和している、系列相関を回避できる、と いったものがあります。
F 補足
F.1 コンパニオン行列の補足
コンパニオン行列の計算について、別の計算方法から補足しましょう。分割行 列の行列式計算から、
|C − λI| =
B1− λI B2 · · · Br
I −λI O
. .. ...
O I −λI
(F.1)
= | − λI|
B1− λI B2 · · · Br−1
I −λI O
. .. ...
O I −λI
−
Br
... O
(−λI )
−1
O · · · I
(F.2)
= (−λ)
B1− λI B2 · · · Br−1+ λ−1Br
I −λI O
. .. ...
O I −λI
(F.3)
... (F.4)
= (−λ)r−2
B1− λI B2 + λ−1B3+ · · · + λ−(r−3)Br−1+ λ−(r−2)Br
I −λI
(F.5)
= (−λ)r−1 B1− λI + λ−1B2+ λ−2B3+ · · · + λ−(r−2)Br−1+ λ−(r−1)Br
= 0 (F.6)
= λr−1B1− λrI+ λr−2B2+ λ−2B3+ · · · + λ1Br−1+ λ0Br
= 0 (F.7)
⇒ |Br+ λBr−1+ λ2Br−2+ · · · + λr−1B1− λrI| = 0 (F.8) が得られます。