• 検索結果がありません。

スライド4(回帰分析+演習手順)

N/A
N/A
Protected

Academic year: 2021

シェア "スライド4(回帰分析+演習手順)"

Copied!
162
0
0

読み込み中.... (全文を見る)

全文

(1)

1

データ分析基礎

回帰分析+演習の手順

京都大学 国際高等教育院 附属データ科学イノベーション教育研究センター

せき

  

   

ど ひろ

  

と sekido.hiroto.7a@kyoto-u.ac.jp

(2)

2

(3)

3

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順多変量解析 ★ 複数の確率変数の関係を調べる ★「身長」と「体重」の関係 ★「気温」と「ビールの売上」の関係 ★「朝食を食べる割合」と「テストの点数」の関係 ★ 回帰分析回帰曲線(回帰曲面)を推定することで複数の確率変数の関係を調べる ★ 回帰曲線 ★

2

つの確率変数

X

Y

を考える ★

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう

(4)

4

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう ★ 例)

X

は身長,

Y

は体重を表すとする

y = E[Y

|X = x]

x

(5)

5

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう ★ 例)

X

は身長,

Y

は体重を表すとする

y = E[Y

|X = x]

x

160 cm 50 kg

(6)

6

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう ★ 例)

X

は身長,

Y

は体重を表すとする

y = E[Y

|X = x]

x

160 cm 50 kg

(7)

7

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう ★ 簡単のため直線

y

=

ax

+

b

(

a, b

R

)

であると仮定することが多い

y = E[Y

|X = x]

x

160 cm 50 kg

(8)

8

回帰分析と回帰曲線

データ分析基礎 講義資料 回帰分析+演習の手順

X

=

x

という条件下での

Y

の平均

E

[

Y

|

X

=

x

]

x

の関数と思ったとき,それを回帰曲線と いう ★ 簡単のため直線

y

=

ax

+

b

(

a, b

R

)

であると仮定することが多い

y = E[Y

|X = x]

x

データから

a, b

を推定する

(9)

9

単回帰分析と重回帰分析

データ分析基礎 講義資料 回帰分析+演習の手順

E

[

Y

|

X

=

x

]

を推定するときは,

X

は説明変数,

Y

は被説明変数(目的変数)と呼ばれる ★ つまり,

Y

がどのような値を取るかは

X

によって決まる,と考えている ★

Y:

ビールの売上,

X:

気温 ★

Y:

テストの点数,

X:

朝食を食べる割合 ★ 説明変数は複数あっても良い ★ 説明変数が

X

1

, X

2

, . . . , X

nで,

E

[

Y

|

X

1

=

x

1

, X

2

=

x

2

, . . . , X

n

=

x

n

]

を考えても良い ★ 説明変数が

1

個の場合を単回帰分析,複数の場合を重回帰分析という

(10)

10

重回帰分析の例

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 説明変数が

2

個の場合:

y

=

E

[

Y

|

X

1

=

x

1

, X

2

=

x

2

]

★ 例)

X

1は身長,

X

2は体脂肪率,

Y

は体重を表すとする

y

x

1

x

2 160 cm 20 % 50 kg

(11)

11

重回帰分析の例

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 説明変数が

2

個の場合:

y

=

E

[

Y

|

X

1

=

x

1

, X

2

=

x

2

]

★ 回帰曲面は平面

y

=

a

1

x

1

+

a

2

x

2

+

b

(

a

1

, a

2

, b

R

)

であると仮定することが多い

y

x

1

x

2 160 cm 20 % 50 kg データから

a

1

, a

2

, b

を推定する

(12)

12

重回帰分析の例

:

二次関数

データ分析基礎 講義資料 回帰分析+演習の手順 ★「身長

(X)

」と「体重

(Y)

」の関係は直線なのか? ★

BMI

などを考慮すると二次関数

y

=

ax

2

+

bx

+

c

と仮定したほうが良いのでは?

y = E[Y

|X = x]

x

(13)

13

重回帰分析の例

:

二次関数

データ分析基礎 講義資料 回帰分析+演習の手順 ★「身長

(X)

」と「体重

(Y)

」の関係は直線なのか? ★

BMI

などを考慮すると二次関数

y

=

ax

2

+

bx

+

c

と仮定したほうが良いのでは? → 重回帰分析 ★

y

=

a

1

x

1

+

a

2

x

2

+

b

において

(

a

1

, a

2

, b, x

1

, x

2

)

→ (

a, b, c, x

2

, x

)

と読み替えれば良い y = E[Y|X = x] x y x1 x2

(14)

14

問題

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 確率変数

X

は血圧を表すとし,

Y

は年収を表すとする ★「血圧」と「年収」の関係を回帰分析で調べた場合どうなるか? ★ 回帰直線は右肩上がりになる ★

y

=

ax

+

b

とすると

a

>

0

★ 年収を上げるには血圧を上げれば良い! ★ と考えるのは危険

(15)

15

解説

データ分析基礎 講義資料 回帰分析+演習の手順「年収」と「血圧」には確かに正の相関があるが因果関係などは何も言っていない ★ 年収が多い人は,ストレスが掛かる仕事をしており,血圧が高いかもしれない ★ 実はこの場合はこれもほぼ正しくない ★「年収」も「血圧」も「年齢」と正の相関がある ★ 確率変数

X

1は血圧を,

X

2は年齢を,

Y

は年収を表すとする ★ 重回帰分析をすると

y

=

a

1

x

1

+

a

2

x

2

+

b

において

a

2

>

0

だが

a

1

>

0

とは限らない ★ 仮定が良くなかった

(16)

16

朝食を食べる割合の例について検証

データ分析基礎 講義資料 回帰分析+演習の手順 ★「朝食を食べる割合

(X)

」と「テストの点数

(Y)

」の関係を回帰分析で調べた場合はどうなるか? ★ 回帰直線は右肩上がりになる ★

y

=

ax

+

b

とすると

a

>

0

★ テストの点数を上げるには朝食を食べれば良い! ★ 栄養がある状態のほうが頭が働いて勉強できる ★ 朝食を食べる割合が多い家庭はしつけができてるだけなのでは…,無理やり朝食を食べても テストの点数は変わらないよ ★ 例え,朝食を食べることとテストの点数に直接的な因果関係がなくても,無理やり朝食を食 べたら生活環境とかの影響でテストの点数上がるかも ★ よくわからない ★ 多角的に分析し,良さそうなら実際に試してみる

(17)

17

最小二乗法の概要

データ分析基礎 講義資料 回帰分析+演習の手順未知な関数を得られたデータから推定したい ★ 未知関数

f

(

x

)

の形はわかっていて,未知パラメータを含む形で書かれる ★ データ

(

x

j

, y

j

)

f

(

x

j

)

での値が

y

jであることを「示唆」する ★ データは厳密に「正しい」訳ではない.つまり厳密に

f

(

x

j

) =

y

jとは限らない(測定誤差など が含まれている) ★

2

変数以上の場合は

x

はベクトルだと思えば良い

(18)

18

最小二乗法の例

(

その

1)

データ分析基礎 講義資料 回帰分析+演習の手順

(19)

19

最小二乗法の例

(

その

1)

データ分析基礎 講義資料 回帰分析+演習の手順

(20)

20

最小二乗法の例

(

その

2)

データ分析基礎 講義資料 回帰分析+演習の手順

(21)

21

最小二乗法の例

(

その

2)

データ分析基礎 講義資料 回帰分析+演習の手順

(22)

22

最小二乗法の例

(

その

3)

データ分析基礎 講義資料 回帰分析+演習の手順

f

(

x

) =

θ

2

x

2

+

θ

1

x

+

θ

0

x

+

θ

3

(23)

23

最小二乗法の例

(

その

3)

データ分析基礎 講義資料 回帰分析+演習の手順

f

(

x

) =

2.1x

2

13.1x

+

3.1

x

+

12.0

(24)

24

最小二乗法の例

データ分析基礎 講義資料 回帰分析+演習の手順 ★ その

1:

直線で近似する場合

f

(

x

) =

θ

0

+

θ

1

x

★(単純な)単回帰分析 ★ その

2:

未知関数がパラメータについて線形(線形最小二乗法)

f

(

x

) =

θ

0

f

0

(

x

) +

θ

1

f

1

(

x

) +

· · · +

θ

m1

f

m1

(

x

)

★(単純な)重回帰分析,以下では主にこれを説明する ★ その

3:

未知関数がパラメータについて非線形(非線形最小二乗法)

f

(

x

) =

f

(

x;

θ

0

,

θ

1

, . . . ,

θ

m1

)

★ 複雑な式の形を指定した場合,解く場合は最適化の理論を用いる

(25)

25

回帰モデルの例

(1) —

単回帰モデル

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 体重を意味する確率変数を

W

★ 身長を意味する確率変数を

H

★ モデル:

W

=

θ

1

H

+

θ

0

+

ε

★ データは,例えば 体重

(kg)

切片 身長

(cm)

A

56.8

1

163.3

B

52.1

1

160.2

C

52.6

1

158.0

D

23.4

1

129.0

E

32.1

1

139.7

F

40.6

1

141.4

(26)

26

回帰モデルの例

(2-1) —

重回帰モデル

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 体重を意味する確率変数を

W

★ 身長を意味する確率変数を

H

★ モデル:

W

=

θ

2

H

2

+

θ

1

H

+

θ

0

+

ε

★ データは,例えば 体重

(kg)

切片 身長

(cm)

身長2

(cm

2

)

A

56.8

1

163.3

26666.89

B

52.1

1

160.2

25664.04

C

52.6

1

158.0

24964.00

D

23.4

1

129.0

16641.00

E

32.1

1

139.7

19516.09

F

40.6

1

141.4

19993.96

(27)

27

回帰モデルの例

(2-2) —

重回帰モデル

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 体重を

W

,身長

H

,体脂肪率を

F

,性別を

S

★ 性別は女性を

1

,男性を

0

で表す ★ モデル:

W

=

θ

3

S

+

θ

2

F

+

θ

1

H

+

θ

0

+

ε

★ データは,例えば 体重

(kg)

切片 身長

(cm)

体脂肪率

(%)

性別

A

56.8

1

163.3

14.3

0

B

52.1

1

160.2

15.3

0

C

52.6

1

158.0

21.2

1

D

23.4

1

129.0

13.3

1

E

32.1

1

139.7

16.8

0

F

40.6

1

141.4

19.6

1

(28)

28

線形最小二乗法の定義,および,性質

1

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 観測と応答の関係

Y

=

m−1

k=0

θ

k

f

k

(

x

) +

ε

=

f

(

x,

θ

) +

ε

は線形回帰モデルと呼ばれる

f

k

(

x

)

は既知の関数 ★

θ

kは未知のパラメータ,

θ

= (

θ

0

,

θ

1

, . . . ,

θ

m1

)

T ★

ε

は確率変数で平均

0

E

[

ε

] =

0

) ★ 実際に

n

個のデータ

(

x

1

, y

1

)

, . . . ,

(

x

n

, y

n

)

を用いて

y

j

=

f

(

x

j

,

θ

) +

ε

j

, j

=

1, 2, . . . , n

とする ★

y

j

,

ε

jは確率変数 ★

ε

j

j

回目の観測における誤差

(29)

29

線形最小二乗法の定義,および,性質

2

データ分析基礎 講義資料 回帰分析+演習の手順

y

j

=

f

(

x

j

,

θ

) +

ε

j

, j

=

1, 2, . . . , n

★ 今回は,誤差

ε

jに対して以下の仮定を置く ★ 平均は

0

.つまり,

E

[

ε

j

] =

0

★ 誤差の分散は等しく,正.つまり,

V

[

ε

j

] =

σ

2

>

0

★ 誤差は互いに無相関.つまり,

E

[

ε

i

ε

j

] =

0, i

̸=

j

残差二乗和

S

(

β

) =

n

k=1

(

y

k

f

(

x

k

,

β

))

2 を最小化する未知パラメータベクトル

β

最小二乗推定量

ˆθ

と言う

(30)

30

絵で見る最小二乗法

データ分析基礎 講義資料 回帰分析+演習の手順

(31)

31

線形最小二乗法の定義,および,性質

3

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 最小二乗推定量

ˆθ

は,最良線形不偏推定量である ★

E

[

ˆθ

] =

θ

(不偏) ★

ˆθ

は,

y

jについて線形の式で書ける(線形) ★ その中で,分散がある意味で最小(最良) ★ 任意の不偏性と線形性を満たす

β

に対して,

Cov

[

β

]

Cov

[

ˆθ

]

が非負定値 ★ 誤差

ε

が正規分布に従うとき,最小二乗推定量

ˆθ

は,最尤推定量である ★ つまり,

x

1

, . . . , x

nを固定して,測定結果として

y

1

, . . . , y

nが得られる確率を

θ

の関数として 考えたとき,その確率の値が最大となるのが

θ

=

ˆθ

のとき

(32)

32

最小二乗法推定量

(

その

1)

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 方針 ★ 残差二乗和

S

(

β

) =

n

k=1

(

y

k

f

(

x

k

,

β

))

2 を最小化したいのだから,

β

0

,

β

1

, . . . ,

β

m1で偏微分して

0

になる

β

を見つければ良い

(33)

33

最小二乗法推定量

(

その

1)

データ分析基礎 講義資料 回帰分析+演習の手順

f

(

x,

β

) =

β

1

x

+

β

0の場合 ★

S

(

β

) =

n

k=1

(

y

k

β

1

x

k

β

0

)

2であるから ★

∂β

1

S

(

β

) =

2

n

k=1

(

x

2k

β

1

+

x

k

β

0

x

k

y

k

) =

0

∂β

0

S

(

β

) =

2

n

k=1

(

x

k

β

1

+

β

0

y

k

) =

0

★ つまり,次の連立一次方程式を解けば良い ★

(

∑ x

2 k

∑ x

k

∑ x

k

n

) (

β

1

β

0

)

=

(

∑ x

k

y

k

∑ y

k

)

β

1

=

n∑ xjyj−∑ xj ∑ yj n∑ x2j−(∑ xj)2 ,

β

0

=

∑ x2 j ∑ yj−∑ xjyj ∑ xj n∑ x2j −(∑ xj)2

(34)

34

最小二乗法推定量

(

その

2)

データ分析基礎 講義資料 回帰分析+演習の手順

f

(

x,

β

) =

β

0

f

0

(

x

) +

β

1

f

1

(

x

) +

· · · +

β

m1

f

m1

(

x

)

の場合 ★

S

(

β

) =

n

k=1

y

k

m

1 j=0

β

j

f

j

(

x

k

)

2 であるから ★

∂β

i

S

(

β

) =

2

n

k=1

f

i

(

x

k

)

m

1 j=0

f

j

(

x

k

)

β

j

y

k

=

0

m−1

j=0 n

k=1

f

i

(

x

k

)

f

j

(

x

k

)

β

j

=

n

k=1

f

i

(

x

k

)

y

k

(35)

35

正規方程式

データ分析基礎 講義資料 回帰分析+演習の手順 ★ つまり,連立一次方程式

B

β

=

b

を解けば良い ★

B

M

m

(

R

)

,

B

ij

=

n

k=1

f

i

(

x

k

)

f

j

(

x

k

)

b

R

m

,

b

i

=

n

k=1

f

i

(

x

k

)

y

k ★ 行列

B

がフルランクであれば,最小二乗推定量が一意に定まる ★

B

β

=

b

は正規方程式と呼ばれる ★ 数値計算する際は,この方程式を直接解くよりも高精度な方法が存在する

(36)

36

正規方程式

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 行列

A

M

n,m

(

R

)

を以下で定義(ヤコビアン,データ行列) ★

A

ij

=

f

j

(

x

i

) =

∂βj

f

(

x

i

)

B

=

A

T

A

b

=

A

T

y

(

ただし

y

= (

y

1

· · ·

y

n

)

T

)

正規方程式は以下のように書き直される

A

T

A

β

=

A

T

y

★ 行列

A

が列フルランクの場合 ★ 最小二乗推定量は

ˆθ

= (

A

T

A

)

1

A

T

y

(37)

37

補足:そもそも最初から行列とベクトルで

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 最小化したい残差二乗和は

S

(

β

) =

n

k=1

(

y

k

f

(

x

k

,

β

))

2

= (

A

β

y, A

β

y

) =

A

β

y

22

β

で微分すると以下:これが

0

になるとおくと,正規方程式を得る

2A

T

A

β

2A

T

y

★ 補足

1

(

A

β

y, A

β

y

) = (

A

β, Aβ

)

2

(

A

β, y

) + (

y, y

)

=

β

T

A

T

A

β

2

(

A

T

y

)

T

β

+

y

T

y

★ 補足

2

(ベクトルで微分する):

d f

d

β

=

(

d f dβ0

· · ·

d f dβm1

)

T ★ d dx

(

a

T

x

) =

a

dxd

(

x

T

Ax

) = (

A

+

A

T

)

x

(38)

38

QR

分解を用いて解く

データ分析基礎 講義資料 回帰分析+演習の手順行列

A

は列フルランクで

QR

分解できたとする

A

=

QR

Q

M

n,m

(

R

)

は列ベクトルが長さ

1

で互いに直交 ★

R

M

m

(

R

)

は正則な上三角行列 ★ このとき,正規方程式は ★

A

T

A

β

=

A

T

y

(

QR

)

T

QR

β

= (

QR

)

T

y

R

T

Q

T

QR

β

=

R

T

Q

T

y

R

T

R

β

=

R

T

Q

T

y

(Q

T

Q

=

I)

R

β

=

Q

T

y

(R

Tは正則

)

R

は上三角行列であるから,これは簡単に解ける

(39)

39

行列

A

が列フルランクでない場合

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 行列

A

が列フルランクでない場合は,最小二乗推定量は一意に定まらない (これはそもそもナンセンスな場合が多い) ★ 最小二乗推定量の中で,

β

2を最小とするものを求めることが多い ★

β

2

=

β

∥ =

β

2 0

+

β

21

+

· · ·

β

2m−1

=

β

T

β

★ 結論を言うと,

A

Moore–Penrose

の一般逆行列を

A

+と書くと

A

+

y

=

R

+

Q

T

y

が答え ★ ある程度ロバストに計算できる方法は特異値分解 ★ 高速に計算するなら完全ピボット選択付き

QR

分解をして直交変換

(40)

40

一般逆行列

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 正則でなくても,長方行列でも良い行列

A

M

mn

(

R

)

に対して,

AXA

=

A

を満たす行列

X

M

nm

(

R

)

を一般逆行列といい

A

で表す ★

A

は必ず存在し,一般的には

A

は一意ではなく複数存在する ★ 連立一次方程式

Ax

=

b

の解の一つは,存在するならば

x

=

A

b

と書ける ★ 連立一次方程式

Ax

=

b

の解は,存在するならば,任意のベクトル

y

を用いて

x

=

A

b

+

(

I

A

A

)

y

と書ける ★ 連立一次方程式

Ax

=

b

(

I

AA

)

b

=

0

ならば解が存在する

(41)

41

Moore–Penrose

の一般逆行列

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 正則でなくても,長方行列でも良い行列

A

M

mn

(

R

)

に対して,

AXA

=

A, XAX

=

X,

(

AX

)

T

=

AX,

(

XA

)

T

=

XA

を満たす行列

X

M

nm

(

R

)

Moore–Penrose

の一般逆 行列といい

A

+ で表す ★

A

+ は必ず存在し,一意である ★ 連立一次方程式

Ax

=

b

の解が存在するならば,その中で

x

2 が最小となるものは

x

=

A

+

b

となる ★ 連立一次方程式

Ax

=

b

の解が存在しなければ,

Ax

b

2 が最小とするのは

x

=

A

+

b

と なる

(42)

42

(43)

43

概要と目的

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 気温とビールの売上の関係を調べる ★ 気象庁の長期予報などと組合せて将来のビールの売上を予想するのが目的 ★ 製造や仕入れなどに有効活用できる可能性

(44)

44

使用するデータ

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 東京の日平均気温の月平均値 ★

http://www.data.jma.go.jp/obd/stats/etrn/view/monthly_s3.php

?prec_no=44&block_no=47662

★ 京都の日平均気温の月平均値 ★

http://www.data.jma.go.jp/obd/stats/etrn/view/monthly_s3.php

?prec_no=61&block_no=47759

★ アサヒグループホールディングスの月次販売情報 ★

https://www.asahigroup-holdings.com/ir/financial_data/monthly_data.html

★ 上のデータを整形して作った

csv

ファイルその

1

(このファイルを使用して演習を行います) ★

http://ds.k.kyoto-u.ac.jp/e-learning_files/

data_analysis_basic/jma_001.csv

PandA

のリソースにも置いてあります

(45)

45

ファイルを開いてみましょう

データ分析基礎 講義資料 回帰分析+演習の手順

(46)

46

単回帰分析をしてみよう

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 単回帰分析を行うことで,ビールの売上と東京の気温との関係を調べてみましょう ★ ビールの売上を

B

,東京の気温を

T

として,

B

=

aT

+

b

+

ε

という回帰モデル ★

Excel

を用いて回帰分析を行う方法はいくつかあるが,ここではアドインの「分析ツール」を 用いる ★

GUI

で操作できる,結果に色々表示される

(47)

47

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(48)

48

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(49)

49

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(50)

50

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(51)

51

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(52)

52

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(53)

53

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(54)

54

アドインの追加

データ分析基礎 講義資料 回帰分析+演習の手順 ★ アドインの追加は例えば以下の手順で行います ★ ファイル → オプション → アドイン → 設定 → 分析ツールにチェックを入れて

OK

を押す ★ 成功するとリボンのデータのタブにデータ分析が表示されます

(55)

55

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 回帰分析の実行は以下の手順で行います ★

1.

データ分析をクリックし,回帰分析を選び,

OK

を押す ★

2.

入力

Y

範囲,入力

X

範囲などを適切に記入し,

OK

を押すことで,回帰分析を行う ★

2-1.

入力

Y

範囲には「

$B$1:$B$77

」と入力(

$

はなくても構いません) ★

2-2.

入力

X

範囲には「

$C$1:$C$77

」と入力(

$

はなくても構いません) ★

2-3.

「ラベル」にチェックを入れる ★

2-4. OK

を押す

(56)

56

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(57)

57

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 回帰分析の実行は以下の手順で行います ★

1.

データ分析をクリックし,回帰分析を選び,

OK

を押す 1 2

(58)

58

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(59)

59

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(60)

60

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(61)

61

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(62)

62

単回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順

★ 回帰分析の実行は以下の手順で行います

(63)

63

単回帰分析の実行結果

データ分析基礎 講義資料 回帰分析+演習の手順

(64)

64

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順

B

=

aT

+

b

+

ε

の係数

a, b

が以下のように推定されたことがわかる

(65)

65

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順

★ この結果から,東京の気温が

1

度あがるとビールの売上が

13

万箱ぐらい増えるだろうと推定さ

(66)

66

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 東京の気温に対して,

P

値が

0.0001

と表示されています ★ これは仮説検定に置いて,帰無仮説を「東京の気温に対する係数

a

=

0

」としたときの

P

値 です

(67)

67

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 東京の気温に対して,下限

95%

6.697612

,上限

95%

19.28555

と表示されています ★ これは,係数

a

に対して,

95%

の確率で

6.69

a

19.28

であるという意味 ★

X

95%

信頼区間が

[

L, U

]

であるとは,

P

(

L

X

U

)

0.95

(68)

68

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 重決定

R2

の値が

0.186059

と表示されています ★ これは,ビールの売上の変化のうち,

18%

ぐらいが東京の気温の変動で説明できるという 意味

(69)

69

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 重決定

R2

はビールの売上の変動のうち,回帰式で説明できた割合(説明できなかったのが残 差二乗和) ★ 変動は

(

平均からのずれ

)

2

(70)

70

考察

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 東京の気温が

1

度上がるとビールの売上が

13

万箱ぐらい増えるんじゃないか ★ しかし,東京の気温だけでは,ビールの打ち上げの変化のうち

18%

ぐらいしか説明できてい ない ★ もうちょっと色々な要因からビールの売上を予想した方が良いのでは ★ 東京の気温の他に,京都の気温も追加で使って予想 ★ 重回帰分析(説明変数の数を

1

つから

2

つに増やす)

(71)

71

ファイル

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 京都の気温のデータも入れた以下のファイルを使用 ★

http://ds.k.kyoto-u.ac.jp/e-learning_files/

data_analysis_basic/jma_002.csv

PandA

のリソースにも置いてあります

(72)

72

ファイルを開いてみましょう

データ分析基礎 講義資料 回帰分析+演習の手順

(73)

73

重回帰分析をしてみよう

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 今度は,重回帰分析を行うことで,ビールの売上と東京の気温と京都の気温の関係を調べてみ ましょう ★ ビールの売上を

B

,東京の気温を

T

,京都の気温を

K

として,

B

=

aT

+

bK

+

c

+

ε

という回 帰モデル ★ 実行の仕方は,単回帰分析とほぼ同様で,

X

の範囲として複数の行を指定すれば良い

(74)

74

重回帰分析の実行

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 回帰分析の実行は以下の手順で行います ★

1.

データ分析をクリックし,回帰分析を選び,

OK

を押す ★

2.

入力

Y

範囲,入力

X

範囲などを適切に記入し,

OK

を押すことで,回帰分析を行う ★

2-1.

入力

Y

範囲には「

$B$1:$B$77

」と入力(

$

はなくても構いません) ★

2-2.

入力

X

範囲には「

$C$1:

$D$

77

」と入力(

$

はなくても構いません) ★

2-3.

「ラベル」にチェックを入れる ★

2-4. OK

を押す

(75)

75

重回帰分析の実行結果

データ分析基礎 講義資料 回帰分析+演習の手順

(76)

76

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順

B

=

aT

+

bK

+

c

+

ε

の係数

a, b, c

が以下のように推定されたことがわかる

(77)

77

実行結果を読み取る

データ分析基礎 講義資料 回帰分析+演習の手順 ★ この結果から以下のことが示唆される ★ 東京の気温が

1

度あがるとビールの売上が

15

万箱ぐらい増える ★ 京都の気温が

1

度あがるとビールの売上が

2

万箱ぐらい減る ★ 直感的には,京都の気温が上がるほどビールの売上が減るのは変な気がする ★ 重相関

R2

の値も

0.186119

とほとんど改善していない ★ ビールの売上の変化は,東京の気温と京都の気温を使っても

18.6%

ぐらいしか説明できてい ない ★ 東京の気温のみを使用した場合は

0.186059

でした ★ 課題

1

★ 直感的に反する結果となったのは何故か,また改善していないのは何故か? 考えてみてく ださい

(78)

78

(79)

79

多重共線性

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 重回帰モデル

B

=

aT

+

bK

+

c

+

ε

B :

ビールの売上 ★

T :

東京の気温 ★

K :

京都の気温 ★ このように,説明変数間で相関がある場合,多重共線性という問題が起こり,最小二乗推定量 が不安定になる ★ より正確には,データ行列の条件数が大きいと不安定になる

cond

(

A

) =

σ

max

(

A

)

/

σ

min

(

A

)

(80)

80

多重共線性

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 連立一次方程式を次のように解釈する

(

x

1

x

2

y

1

y

2

) (

a

b

)

=

(

x

3

y

3

)

⇐⇒

a

(

x

1

y

1

)

+

b

(

x

2

y

2

)

=

(

x

3

y

3

)

2

つのベクトルをどのように足せば,ベクトル

(

x

3

y

3

)

T を作れるか? ★ このとき,条件数が大きいというのは,

2

つのベクトルがほぼ線形従属であることを意味する 𝑥𝑥1 𝑦𝑦1 𝑥𝑥2 𝑦𝑦2 𝑥𝑥3 𝑦𝑦3 𝑥𝑥1 𝑦𝑦1 𝑥𝑥2 𝑦𝑦2 𝑥𝑥3 𝑦𝑦3 条件数:小さい 条件数:大きい

(81)

81

多重共線性

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 回帰分析に於いても,強い相関のあるデータ(似たようなデータ,ほぼ同じ方向を向いたデー タ)を用いると結果が不安定になる ★ 重回帰モデルを次のように書き換える

B

=

aT

+

bK

+

c

+

ε

=

a

(

T

+

K

) +

b

(

T

K

) +

c

+

ε

★ ただし,

a

+

b

=

2a, a

b

=

2b

T, K

はほぼ同じ傾向を示すから,

T

K

0

に近い値ばかり取る ★ その状況で,

T

K

の情報を使って「データの近くを通ろうと」すると

T

K

の係数

b

の推 定結果は絶対値が大きく不安定になる ★ それが伝搬して,結果的に

a, b

の推定結果も不安定になる

(82)

82

多重共線性

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 多重共線性の回避方法 ★ 不安定になっているように見えたら説明変数を減らす ★ 説明変数を無相関にする(連立一次方程式に於いてベクトルが直交するようにする) ★ 説明変数を以下に取り替えて,

a

, b

, c

を推定することにする ★

T

+

K

:全国的な気温 ★

T

K

:関東と開催での気温の差 ★ こうすると,

2

つの説明変数

T

+

K

T

K

はあまり相関は強くない ★ 互いに影響を及ぼし,全体的に推定結果が不安定になることはない ★

T

K

は全体的に値が小さく,ビールの売上をうまく説明できないであろうため,この係数 に対してはうまく行かない ★

T

K

は説明変数として不要

(83)

83

多重共線性

データ分析基礎 講義資料 回帰分析+演習の手順 ★ 説明変数の無相関化 ★ 説明変数を無相関にする方法として主成分分析を行う方法がある ★ 主成分分析した結果を用いて回帰分析を行うことを主成分回帰と呼ぶ

(84)

84

多重共線性と主成分回帰

データ分析基礎 講義資料 回帰分析+演習の手順

A

=

UDV

Tと特異値分解されるとする ★

U

T

U

=

I, V

T

V

=

VV

T

=

I

D

は対角行列で対角成分は全て正 ★ 最小二乗推定量は

A

T

A

β

=

A

T

y

を満たす

β

のことだから,

A

T

A

β

=

A

T

y

(

UDV

T

)

T

(

UDV

T

)

β

= (

UDV

T

)

T

y

VDU

T

UDV

T

β

=

VDU

T

y

VD

2

V

T

β

=

VDU

T

y

β

=

VD

1

U

T

y

参照

関連したドキュメント

重回帰分析,相関分析の結果を参考に,初期モデル

今回チオ硫酸ナトリウム。クリアランス値との  

例えば,立証責任分配問題については,配分的正義の概念説明,立証責任分配が原・被告 間での手続負担公正配分の問題であること,配分的正義に関する

例えば,立証責任分配問題については,配分的正義の概念説明,立証責任分配が原・被告 間での手続負担公正配分の問題であること,配分的正義に関する

ü  modeling strategies and solution methods for optimization problems that are defined by uncertain inputs.. ü  proposed by Ben-Tal & Nemirovski

Dual averaging and proximal gradient descent for online alternating direction multiplier method. Stochastic dual coordinate ascent with alternating direction method

情報理工学研究科 情報・通信工学専攻. 2012/7/12

最大消滅部分空間問題 MVSP Maximum Vanishing Subspace Problem.. MVSP: