• 検索結果がありません。

重回帰分析 計量経済学 鹿野研究室 note11

N/A
N/A
Protected

Academic year: 2018

シェア "重回帰分析 計量経済学 鹿野研究室 note11"

Copied!
5
0
0

読み込み中.... (全文を見る)

全文

(1)

担当:鹿野(大阪府立大学)

2013 年度後期

はじめに

前回の復習

 統計ソフトgretlで回帰分析。

今回学ぶこと

 重回帰分析とは?

 重回帰版OLS推定量の性質。

 テキスト該当箇所 :4.14.34.4章。講義ノート#06∼09の単回帰分析と比較せよ。

1 重回帰分析

1.1 重回帰モデル:複数の説明変数

 講義ノート#06∼#09の単回帰モデル

Yi = α + βXi+ ui, i = 1, 2, . . . , n. (1) ...唯一の説明変数Xi被説明変数Yiは、Xi以外の変数にも依存しているはず。

例:人の体重Yiは、身長、カロリー摂取・消費量、遺伝、etcに依存。

例:堺市内の家賃Yiは、間取り、築年数、最寄駅からの距離、etcに依存。

例:企業の生産額Yiは、資本ストックと労働者数に依存。(∴これは生産関数。)

 重回帰モデル:K個の説明変数を持つ回帰モデル

Yi = α + β1X1i+ β2X2i+ · · · + βKXKi+ ui, i = 1, 2, . . . , n (2)

を、 と呼ぶ。

⊲ ∴データとして観測可能な複数の説明変数X1i, X2i, . . . , XKiに依存して、Yiの母平均 が変化。

個の回帰係数α, β1, β2, . . . , βK次元のデータ(X1i, X2i, . . . , XKi, Yi) からOLS推定(後述)。

個体i j番目の変数を、一般的にXjiと表記。 1

(2)

 古典的仮定:説明変数X1i, X2i, . . . , XKiと誤差項uiは、引き続き CR1∼CR5

(講義ノート#08) を満たすと仮定。 以下再掲。

⊲ CA1X1i, X2i, . . . , XKiは、非確率変数。普通の数字。

⊲ CA2E(ui) = 0

⊲ CA3Var(ui) = E(u2i) = σ2σ2は母分散。

⊲ CA4u1, u2, . . . , unは独立→Cov(ui, uj) = E(uiuj) = 0

⊲ CA5ui ∼N(0, σ2)

 Remark:重回帰モデルを「わざわざ」使う理由・動機。

1. の観点:複数の説明変数を同時に使う回帰モデルの予測精度が高まる。 2. の観点(非常に重要):非実験データによる実証分析の問題点(講義ノー

#01)を、部分的に克服。詳しくは次回。

1.2 重回帰モデルの OLS 推定

 簡略化のため、 説明変数が二つ(K = 2)の重回帰モデルの推定を考える。

Yi= α + β1X1i+ β2X2i+ ui. (3) 三つの変数(X1i, X2i, Yi)。∴三次元のデータ。

偏差2乗和と偏差積和の組み合わせを整理。 説明変数同士の偏差積和が登場。

X1i X2i Yi

X1i S11=(X1i− ¯X1)2 S12=(X1i− ¯X1)(X2i− ¯X2) S1Y =(X1i− ¯X1)(Yi− ¯Y) X2i (重複) S22=(X2i− ¯X2)2 S2Y =(X2i− ¯X2)(Yi− ¯Y)

Yi (重複) (重複) SYY =(Y2− ¯Y2)2

 OLS推定:講義ノート#06の単回帰と同様、 まず予測式と残差

i = a + b1X1i+ b2X2i, ei = Yi− ˆYi, i = 1, 2, . . . , n (4)

を立て、残差2乗和(予測誤差の2乗和) Q(a, b1, b2) =e2i =

(Yia − b1X1ib2X2i)2 (5)

を最小にする解a, b

1, b

2を、(2)式のα, β1, β2 とする。

⊲ Q(a, b1, b2)最小化の一階条件を整理すると

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

na+ ( X1i)b1+ ( X2i)b2 = Yi, ( X1i)a+ ( X1i2)b1+ ( X1iX2i)b2 = X1iYi,

( X2i)a+ ( X1iX2i)b1+ ( X22i)b2 = X2iYi.

(6)

OLS推定量は、3本の の解。

一般に、K個の説明変数K + 1本の正規方程式。

(3)

 OLS推定量と基本統計量 :(6)式の解をα, ˆˆ β1, ˆβ2と置くと ˆβ1= S22S1YS12S2Y

S11S22−S12S12, βˆ2 =

S11S2Y−S12S1Y

S11S22−S12S12, α = ¯ˆ Y − ˆβ1X¯1− ˆβ2X¯2. (7)

(解き方テキストp92∼94参照。)

⊲ X1iの係数β1OLS推定量βˆ1が、S22S2Yに依存。βˆ2も同様。

⊲ ∴重回帰分析では、X2i(=「相方」)にどんな変数を使うかで が変わっ てしまう!

1.3 多重共線性:重回帰特有の問題

 K = 2の重回帰モデル(3)式で、X1iX2iに線形(比例)の関係があるとする。

X1i = cX2i. (8)

例:X1i =「円」で測った年収、X2i =「万円」で測った年収(∴c =10,000)。測定単 位が違うだけ。

ここで、X1i= cX2i(6)式の正規方程式に代入。

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

na+ (c X2i)b1+ ( X2i)b2 = Yi, (c X2i)a+ (c2 X22i)b1+ (c X22i)b2 = c X2iYi,

( X2i)a+ (c X2i2)b1+ ( X2i2)b2 = X2iYi.

(9)

 正規方程式の重複 :上の第2式両辺をcで割ると

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

na+ (c X2i)b1+ ( X2i)b2 = Yi,

( X2i)a+ (c X2i2)b1+ ( X2i2)b2 = X2iYi,

( X2i)a+ (c X2i2)b1+ ( X2i2)b2 = X2iYi.

(10)

X1iX2iが比例関係X1i = cX2i 2式と第3式は全く同じ。実質 本の方程式。

一方、未知数はa, b1, b2 個。

⊲ ∴「未知数の数= 3 >方程式の数= 2→解が一意に定まらない。

 多重共線性:説明変数間の線形関係により回帰係数のOLS推定量が一意に定まらない問

題を、 と呼ぶ。

⊲ 説明変数が複数登場する、 重回帰分析特有の問題。

⊲ データに多重共線性があると、 統計ソフトでエラー (or多重共線性を起こしている 説明変数を落として計算が始まる)。∴多重共線性は、未然に防げる。

 Remark:実際のデータ分析で注意したいのは、 。説明変数同士に

強い相関(近似的な比例関係) があると、統計ソフトで数値計算上の問題が発生。

症状:OLS推定値や標準誤差が桁はずれに大きな数字になる、 など。統計ソフトで エラーが出ず、数値計算が(無言で)実行されてしまうので、厳密な多重共線性よ りも厄介。

⊲ 対処法:説明変数同士の散布図がほぼ一直線に並ぶならば、 どちらか一方の変数を モデルから外す。

(4)

1.4 自由度修正済み決定係数

 重回帰分析でも、 講義ノート#07

SYY



偏差2 乗和

= SˆYY



回帰2 乗和

+

ˆu2i



OLS 残差 2 乗和

⇒ R2= SˆYY SYY = 1 −

 ˆu2i SYY

. (11)

は回帰直線のデータへの当てはまりの尺度として有効。ここでˆui = Yi− ˆYiは重回帰のOLS 残差。

⊲ 説明変数が多いほど、 予測力は高まる( ˆu2

i の割合が減る)R

2は大きくなる。

問題点:R2を上げるために、何でもかんでも説明変数に入れるモデルが複雑に。

 自由度修正済み決定係数R¯:重回帰分析では、R2ではなく R¯2= 1 − d ˆu

2 i

SYY , d =

n −1

n −(K + 1) >1 (12)

を当てはまりの尺度に使う。 これを と呼ぶ。

⊲ d > 1なのでR¯2< R2

説明変数の個数Kが大きい⇔dが大きい。予測の精度に貢献しない説明変数を増 やすと、Kが増えてR¯2が 可能性。無駄な説明変数を利用することへ の「ペナルティ」。

⊲ ∴ ¯R2は、シンプルで、かつ説明力の高いモデルを目指すための指標。

2 OLS 推定量の性質:重回帰版

2.1 ガウス・マルコフの定理

 OLS推定量の不偏性:重回帰モデル(2)式のα, β1, β2, . . . , βKOLS推定量を

α, β1, β2, . . . , βK −−−−−−−→OLS 推定 α, ˆˆ β1, ˆβ2, . . . , ˆβK (13) と置く。古典的仮定CA1∼CA4の下では、その期待値は

E( ˆα) = α, E( ˆβj) = βj, j = 1, 2, . . . , K. (14)

⊲ ∴重回帰分析でも、OLS推定量は回帰係数の

 ガウス・マルコフの定理(講義ノート#08):古典的仮定のCA1∼CA4が成立するならば、 ˆ

α, ˆβ1, ˆβ2, . . . , ˆβKα, β1, β2, . . . , βKの最小分散の線形不偏推定量 (BLUE)である。

⊲ ∴重回帰分析でも、CA1∼CA4が成立するならOLS推定を使うのがベスト。

 上記二点の証明 :一般的なK変数の場合、 線形代数(ベクトル ・行列)を用いて行うの が一般的。

浅野・中村(20104章)などを参照のこと。...学部上級レベルの内容。

(5)

2.2 回帰係数の有意性検定

 有意性のt検定(講義ノート#09):回帰係数βjの有意性検定H0: βj = 0の は

t = βˆj

s.e.( ˆβj) T(m), j = 1, 2, . . . , K. (15) s.e.( ˆβj)ˆβjの標準誤差。ここで自由度は

m = n − (K + 1)

 

回帰係数の数

. (16)

自由度mの設定に注意。単回帰K = 1の自由度m = n − 2も、一般型m = n − (K + 1) に当てはまる。

標準誤差 s.e.( ˆβj)の計算は?⇒K変数の場合、線形代数の知識が必要。浅野・中村

(20104章)などを参照のこと。

 有意性のt検定:手順は、単回帰のケース(講義ノート#09) と全く同じ。 1. データからtt0=

βˆj

s.e.( ˆβj)を計算。

2. t分布表から右端2.5%臨界値t(m)(注意: )を調べ、 (a) |t0| > t(m) ⇒ H0 : βj = 0を棄却。βjは統計的に有意。

(b) |t0| < t(m) ⇒ H0 : βj = 0を棄却できない。βjは統計的に有意でない。

 サンプル数nが十分大きいt(m)ではなく、 標準正規分布の臨界値z = 1.96(だいたい 2)で検定。

⊲ コレも、単回帰の有意性検定と同じ。

まとめと復習問題

今回のまとめ

 重回帰分析:複数の説明変数X1i, X2i, . . . , XKiで、被説明変数Yiの個体差を説明。

 重回帰版OLS推定量の性質:単回帰のケースとほぼ同じ。

復習問題

出席確認用紙に解答し (用紙裏面を用いても良い)、 退出時に提出せよ。

1. 重回帰分析において、講義ノート#06 ∼ 10の単回帰分析から変わること・変わらないこ とを簡潔にまとめよ。

(a) データから係数を推定する原理。 (b) モデルの当てはまりの尺度。

(c) OLS推定量の確率的性質。

(d) 回帰係数の有意性のt検定。

参照

関連したドキュメント

1880 年代から 1970 年代にかけて、アメリカの

1880 年代から 1970 年代にかけて、アメリカの

中国の農地賃貸市場の形成とその課題 (特集 中国 の都市と産業集積 ‑‑ 長江デルタで何が起きている か).

 ティモール戦士協会‑ティモール人民党 Kota/PPT 1974 保守・伝統主義  2  ティモール抵抗民主民族統一党 Undertim 2005 中道右派  2.

⑧ Ministry of Statistics and Programme Implementation National Sample Survey Office Government of India, Report No.554 Employment and Unemployment Situation in India NSS 68th ROUND,

Ⅲ期はいずれも従来の政治体制や経済政策を大きく転

2016.④ Daily News &amp; Analysis &#34;#dnaEdit: Tamil Nadu students' suicide exposes rot in higher

告した統計をもとに編集されている 1 。国際連合統 計委員会(United Nations Statistical Commission、以 下 UNSC