担当:鹿野(大阪府立大学)
2013 年度後期
はじめに
前回の復習
統計ソフトgretlで回帰分析。
今回学ぶこと
重回帰分析とは?
重回帰版OLS推定量の性質。
テキスト該当箇所 :4.1、4.3、4.4章。講義ノート#06∼09の単回帰分析と比較せよ。
1 重回帰分析
1.1 重回帰モデル:複数の説明変数
講義ノート#06∼#09の単回帰モデル
Yi = α + βXi+ ui, i = 1, 2, . . . , n. (1) ...唯一の説明変数Xi。⇒被説明変数Yiは、Xi以外の変数にも依存しているはず。
⊲ 例:人の体重Yiは、身長、カロリー摂取・消費量、遺伝、etcに依存。
⊲ 例:堺市内の家賃Yiは、間取り、築年数、最寄駅からの距離、etcに依存。
⊲ 例:企業の生産額Yiは、資本ストックと労働者数に依存。(∴これは生産関数。)
重回帰モデル:K個の説明変数を持つ回帰モデル
Yi = α + β1X1i+ β2X2i+ · · · + βKXKi+ ui, i = 1, 2, . . . , n (2)
を、 と呼ぶ。
⊲ ∴データとして観測可能な複数の説明変数X1i, X2i, . . . , XKiに依存して、Yiの母平均 が変化。
⊲ 個の回帰係数α, β1, β2, . . . , βK ⇒ 次元のデータ(X1i, X2i, . . . , XKi, Yi) からOLS推定(後述)。
⊲ 個体iの j番目の変数を、一般的にXjiと表記。 1
古典的仮定:説明変数X1i, X2i, . . . , XKiと誤差項uiは、引き続き CR1∼CR5
(講義ノート#08) を満たすと仮定。 以下再掲。
⊲ CA1:X1i, X2i, . . . , XKiは、非確率変数。普通の数字。
⊲ CA2:E(ui) = 0。
⊲ CA3:Var(ui) = E(u2i) = σ2、σ2は母分散。
⊲ CA4:u1, u2, . . . , unは独立→Cov(ui, uj) = E(uiuj) = 0。
⊲ CA5:ui ∼N(0, σ2)。
Remark:重回帰モデルを「わざわざ」使う理由・動機。
1. の観点:複数の説明変数を同時に使う⇒回帰モデルの予測精度が高まる。 2. の観点(非常に重要):非実験データによる実証分析の問題点(講義ノー
ト#01)を、部分的に克服。詳しくは次回。
1.2 重回帰モデルの OLS 推定
簡略化のため、 説明変数が二つ(K = 2)の重回帰モデルの推定を考える。
Yi= α + β1X1i+ β2X2i+ ui. (3) 三つの変数(X1i, X2i, Yi)。∴三次元のデータ。
⊲ 偏差2乗和と偏差積和の組み合わせを整理。 説明変数同士の偏差積和が登場。
X1i X2i Yi
X1i S11=(X1i− ¯X1)2 S12=(X1i− ¯X1)(X2i− ¯X2) S1Y =(X1i− ¯X1)(Yi− ¯Y) X2i (重複) S22=(X2i− ¯X2)2 S2Y =(X2i− ¯X2)(Yi− ¯Y)
Yi (重複) (重複) SYY =(Y2− ¯Y2)2
OLS推定:講義ノート#06の単回帰と同様、 まず予測式と残差
Yˆi = a + b1X1i+ b2X2i, ei = Yi− ˆYi, i = 1, 2, . . . , n (4)
を立て、残差2乗和(予測誤差の2乗和) Q(a, b1, b2) =e2i =
(Yi−a − b1X1i−b2X2i)2 (5)
を最小にする解a∗, b∗
1, b
∗
2を、(2)式のα, β1, β2の とする。
⊲ Q(a, b1, b2)最小化の一階条件を整理すると
⎧⎪
⎪⎪
⎪⎪
⎨
⎪⎪
⎪⎪
⎪⎩
na∗+ ( X1i)b∗1+ ( X2i)b∗2 = Yi, ( X1i)a∗+ ( X1i2)b∗1+ ( X1iX2i)b∗2 = X1iYi,
( X2i)a∗+ ( X1iX2i)b∗1+ ( X22i)b∗2 = X2iYi.
(6)
∴OLS推定量は、3本の の解。
⊲ 一般に、K個の説明変数⇔K + 1本の正規方程式。
OLS推定量と基本統計量 :(6)式の解をα, ˆˆ β1, ˆβ2と置くと ˆβ1= S22S1Y−S12S2Y
S11S22−S12S12, βˆ2 =
S11S2Y−S12S1Y
S11S22−S12S12, α = ¯ˆ Y − ˆβ1X¯1− ˆβ2X¯2. (7)
(解き方⇒テキストp92∼94参照。)
⊲ X1iの係数β1のOLS推定量βˆ1が、S22やS2Yに依存。βˆ2も同様。
⊲ ∴重回帰分析では、X2i(=「相方」)にどんな変数を使うかで が変わっ てしまう!
1.3 多重共線性:重回帰特有の問題
K = 2の重回帰モデル(3)式で、X1iとX2iに線形(比例)の関係があるとする。
X1i = cX2i. (8)
⊲ 例:X1i =「円」で測った年収、X2i =「万円」で測った年収(∴c =10,000)。測定単 位が違うだけ。
⊲ ここで、X1i= cX2iを(6)式の正規方程式に代入。
⎧⎪
⎪⎪
⎪⎪
⎨
⎪⎪
⎪⎪
⎪⎩
na∗+ (c X2i)b∗1+ ( X2i)b∗2 = Yi, (c X2i)a∗+ (c2 X22i)b∗1+ (c X22i)b∗2 = c X2iYi,
( X2i)a∗+ (c X2i2)b∗1+ ( X2i2)b∗2 = X2iYi.
(9)
正規方程式の重複 :上の第2式両辺をcで割ると
⎧⎪
⎪⎪
⎪⎪
⎨
⎪⎪
⎪⎪
⎪⎩
na∗+ (c X2i)b∗1+ ( X2i)b∗2 = Yi,
( X2i)a∗+ (c X2i2)b∗1+ ( X2i2)b∗2 = X2iYi,
( X2i)a∗+ (c X2i2)b∗1+ ( X2i2)b∗2 = X2iYi.
(10)
∴ X1iとX2iが比例関係X1i = cX2i →第2式と第3式は全く同じ。実質 本の方程式。
⊲ 一方、未知数はa∗, b∗1, b∗2の 個。
⊲ ∴「未知数の数= 3 >方程式の数= 2」→解が一意に定まらない。
多重共線性:説明変数間の線形関係により回帰係数のOLS推定量が一意に定まらない問
題を、 と呼ぶ。
⊲ 説明変数が複数登場する、 重回帰分析特有の問題。
⊲ データに多重共線性があると、 統計ソフトでエラー (or多重共線性を起こしている 説明変数を落として計算が始まる)。∴多重共線性は、未然に防げる。
Remark:実際のデータ分析で注意したいのは、 。説明変数同士に
強い相関(近似的な比例関係) があると、統計ソフトで数値計算上の問題が発生。
⊲ 症状:OLS推定値や標準誤差が桁はずれに大きな数字になる、 など。統計ソフトで エラーが出ず、数値計算が(無言で)実行されてしまうので、厳密な多重共線性よ りも厄介。
⊲ 対処法:説明変数同士の散布図がほぼ一直線に並ぶならば、 どちらか一方の変数を モデルから外す。
1.4 自由度修正済み決定係数
重回帰分析でも、 講義ノート#07の
SYY
偏差2 乗和
= SˆYY
回帰2 乗和
+
ˆu2i
OLS 残差 2 乗和
⇒ R2= SˆYY SYY = 1 −
ˆu2i SYY
. (11)
は回帰直線のデータへの当てはまりの尺度として有効。ここでˆui = Yi− ˆYiは重回帰のOLS 残差。
⊲ 説明変数が多いほど、 予測力は高まる( ˆu2
i の割合が減る)。→R
2は大きくなる。
⊲ 問題点:R2を上げるために、何でもかんでも説明変数に入れる→モデルが複雑に。
自由度修正済み決定係数R¯:重回帰分析では、R2ではなく R¯2= 1 − d ˆu
2 i
SYY , d =
n −1
n −(K + 1) >1 (12)
を当てはまりの尺度に使う。 これを と呼ぶ。
⊲ d > 1なのでR¯2< R2。
⊲ 説明変数の個数Kが大きい⇔dが大きい。∴予測の精度に貢献しない説明変数を増 やすと、Kが増えてR¯2が 可能性。無駄な説明変数を利用することへ の「ペナルティ」。
⊲ ∴ ¯R2は、シンプルで、かつ説明力の高いモデルを目指すための指標。
2 OLS 推定量の性質:重回帰版
2.1 ガウス・マルコフの定理
OLS推定量の不偏性:重回帰モデル(2)式のα, β1, β2, . . . , βKのOLS推定量を
α, β1, β2, . . . , βK −−−−−−−→OLS 推定 α, ˆˆ β1, ˆβ2, . . . , ˆβK (13) と置く。古典的仮定CA1∼CA4の下では、その期待値は
E( ˆα) = α, E( ˆβj) = βj, j = 1, 2, . . . , K. (14)
⊲ ∴重回帰分析でも、OLS推定量は回帰係数の 。
ガウス・マルコフの定理(講義ノート#08):古典的仮定のCA1∼CA4が成立するならば、 ˆ
α, ˆβ1, ˆβ2, . . . , ˆβKはα, β1, β2, . . . , βKの最小分散の線形不偏推定量 (BLUE)である。
⊲ ∴重回帰分析でも、CA1∼CA4が成立するならOLS推定を使うのがベスト。
上記二点の証明 :一般的なK変数の場合、 線形代数(ベクトル ・行列)を用いて行うの が一般的。
⊲ 浅野・中村(2010、4章)などを参照のこと。...学部上級レベルの内容。
2.2 回帰係数の有意性検定
有意性のt検定(講義ノート#09):回帰係数βjの有意性検定H0: βj = 0の は
t = βˆj
s.e.( ˆβj) ∼T(m), j = 1, 2, . . . , K. (15) s.e.( ˆβj)はˆβjの標準誤差。ここで自由度は
m = n − (K + 1)
回帰係数の数
. (16)
⊲ 自由度mの設定に注意。単回帰K = 1の自由度m = n − 2も、一般型m = n − (K + 1) に当てはまる。
⊲ 標準誤差 s.e.( ˆβj)の計算は?⇒K変数の場合、線形代数の知識が必要。浅野・中村
(2010、4章)などを参照のこと。
有意性のt検定:手順は、単回帰のケース(講義ノート#09) と全く同じ。 1. データからt値t0=
βˆj
s.e.( ˆβj)を計算。
2. t分布表から右端2.5%臨界値t(m)(注意: )を調べ、 (a) |t0| > t(m) ⇒ H0 : βj = 0を棄却。βjは統計的に有意。
(b) |t0| < t(m) ⇒ H0 : βj = 0を棄却できない。βjは統計的に有意でない。
サンプル数nが十分大きい→t(m)ではなく、 標準正規分布の臨界値z = 1.96(だいたい 2)で検定。
⊲ コレも、単回帰の有意性検定と同じ。
まとめと復習問題
今回のまとめ
重回帰分析:複数の説明変数X1i, X2i, . . . , XKiで、被説明変数Yiの個体差を説明。
重回帰版OLS推定量の性質:単回帰のケースとほぼ同じ。
復習問題
出席確認用紙に解答し (用紙裏面を用いても良い)、 退出時に提出せよ。
1. 重回帰分析において、講義ノート#06 ∼ 10の単回帰分析から変わること・変わらないこ とを簡潔にまとめよ。
(a) データから係数を推定する原理。 (b) モデルの当てはまりの尺度。
(c) OLS推定量の確率的性質。
(d) 回帰係数の有意性のt検定。