• 検索結果がありません。

学習係数の影響について

第4章 参照モデルと学習理論に基づいた位置制御法

4.6 学習係数の影響について

先の図をみると、赤線が参照モデルと学習理論を用いた制御法を用いた出力結果で、緑線 がPID制御の出力結果である。赤線と緑線を比較すると、静止摩擦や周期外乱を抑制して いることがわかる。つまり、シミュレーション結果と実験結果がよく一致していることが わかる。

図49: λを変えるシミュレーション結果

以上の結果をみるとλが大きいほど、学習が遅いが振動せず安定していることがわかる。

一方、λを固定してαを変動した場合のシミュレーション結果を示す。シミュレーショ ン条件は以下である。以下のシミュレーション条件でαを0.00001、0.0003、0.00045と変 えてシミュレーションした結果が次の図である。

表11:αを変えるシミュレーション条件

制御対象

) 215 ( ) 1365

(

s s s

P Ts 0.5 [ms]

コントローラ

s s s

C 0.5 1 ) 10

(   目標値 ±1 [mm]

外乱 ±5V λ 0.5

0 200 400 600 800 1000

-1.5 -1 -0.5 0 0.5 1 1.5

Data number

output

ram1.0 ram0.7 ram0.5 ram0.2

0 200 400 600 800 1000

-1.5 -1 -0.5 0 0.5 1 1.5

Data number

output

ram1.0 ram0.7 ram0.5 ram0.2

0 200 400 600 800 1000

-50 0 50

Data number

Input

ram1.0 ram0.7 ram0.5 ram0.2

0 200 400 600 800 1000

-50 0 50

Data number

Input

ram1.0

ram0.7

ram0.5

ram0.2

図50: αを変えるシミュレーション結果

以上の結果をみると、αが大きいほど学習が速く振動する結果となった。

以上の結果を考慮すると、αやλを試行錯誤的に調整して発散しないようにできるだけ 速く学習が収束するようにする。

0 200 400 600 800 1000

-1.5 -1 -0.5 0 0.5 1 1.5

Data number

output

0.00045 0.00030 0.00001

0 200 400 600 800 1000

-1.5 -1 -0.5 0 0.5 1 1.5

Data number

output

0.00045 0.00030 0.00001

0 200 400 600 800 1000

-50 0 50

Data number

input

0.00045 0.00030 0.00001

0 200 400 600 800 1000

-50 0 50

Data number

input

0.00045

0.00030

0.00001

4.7 参照モデルと学習理論に基づいた位置制御法の

AIC による評価

4.7.1 AIC の理論

パラメータの数が多ければ多いほど、観測データに対してモデル式をスムーズにフィッ テングさせられる。しかし、パラメータとは元々未知なものであって、値が推定されてい るだけである。たまたま、あるパラメータの組み合わせで、観測値と推定値が良く合った とする。しかし、別のパラメータの組み合わせで観測値と推定値がもっと良く合うかもし れない。パラメータの数が多くなればなるほど、このような可能性が増加する。したがっ て、パラメータの数は尐ないほど、良い推定モデルであるといえる。

このように数学モデル式に含まれるパラメータの数が大きくなるとモデル式の信頼性が 低下する。したがって、システムの観測データに対するモデルの適合性を論じる場合には、

パラメータの数の影響を考慮できるモデル評価規準が必要である。この条件を満足する評 価規準がAICである。

標本値に対する対数尤度が大きくなるほど標本値は数学モデルによる値(平均値)に近い と判定できる。すなわち、モデルの適合度を調べるには標本値に対する対数尤度の大きさ を評価すれば良いことがわかる。ここで、観測値と言わずに標本値と呼んだのは観測誤差 の影響を除く必要があり、観測値から観測誤差を取り除いた標本値の分布が解析の対象だ からである。

今、観測値がn個あり、それに対する数学モデル式による推定値をfiとする。そのとき、

次 式 に 示 す よ う に 、 推 定 値 fi に シ ス テ ム ノ イ ズ ws が 加 わ っ た も の が 真 の 状 態 量

xi(i=1,2・・・,n)である。さらに、それに観測ノイズwoを加えたものが観測値yiという関係に

ある。

s i

i f w

x   ・・・(53)

o i

i x w

y   ・・・(54)

システムノイズ wsとはシステムの現象そのものが持つばらつきであり、観測ノイズ wo

とは観測誤差に起因するばらつきである。

真の状態量xi は解析モデル式による推定値fiの周りに分布しており、その分布が正規分 布であるとすれば、その確率密度関数は次式で表される。

 

 

  

 ( )

2

2 exp 1 2

1

i i S s

f V x

V

p

・・・(55)

ここに、Vsはシステムノイズwsの分散である。データはn個あるので、モデル式に関す る対数尤度Lsはn個の状態量に関する確率密度関数である上式の積の対数を取って、次式 で表すことができる。









 





 

n

i

i i s n

s

s x f

V V L

1

)

2

2 ( exp 1 2

ln 1

) 2 2 ln(

) (

2 3 1

1

2

s n

i

i i o

s

n V y

f

V nV





  

・・・(56) ここに、Voは観測ノイズの分散である。

上式が Vs について最大となるのはLs

/

Vs

0

のときである。そこで、上式を用いて、

0 /

 

Ls Vs と置き、その式をVsについて解くと





  

n

i

i i O

s nV f y

V n

1

)

2

( 1 3

・・・(57) となる。さらに式()を式()へ代入すると

 

 

 

 

  

 

n

i

i i O

s

nV f y

n n L n

1

)

2

( 2 3

2 ln 2

・・・(58)

となる。この式がモデル式の最大対数尤度である。

すなわち、式()の値が大きいほどモデルの適合度が高いと評価できる。しかし、これだけ ではまだパラメータ数の影響が考慮されていない。そこで、式()にパラメータ数の影響項を 加えた次式がモデル式の適合性評価に最適な式である。

n

s p

L

AIC

2

2

・・・(59)

ここに、pn はパラメータ数である。上式は AIC(赤池情報量規準:Akaike’s information criterion)と呼ばれ、モデルの適合性評価に広く用いられている。

AIC が小さいほど良いモデル式である。観測データが与えられた場合、いくつかのモデ ル式を想定してAICを求め、最小のAICを与えるものを最良のモデルを判定することがで きる。

観測誤差分散とAICの関係を調べたものによると、観測誤差の大きさにより最良モデル が逆転することがあることがわかる。つまり、観測誤差がモデル式の適合性評価に大きく 影響することがAICを通して、改めて確認できる。

AIC は1次式や3次式のような多項式モデルの優劣判定だけでなく、各種の関数形のモ デルの優劣判定に、広く用いられている。例えば、ARMAモデルの次数kの最適値の評価 に利用できる。また、ニューラルネットワークの最適なニューロン数や解析法の優劣判定 にも用いることが出来る。

4.7.2 ニューラルネットワークの評価

さて、ここでニューラルネットワークを評価するためにAIC を用いることを考える。そ のために、AIC をニューラルネットワークのパラメータを用いたものに変える。以下にそ の式を示す。

K E

P T

AIC  * * log( * 2 )  2 *

・・・(60)

ここで、Tは学習データ数、Pは出力層ユニット数、Kは調整可能なパラメータ数(結合係 数の数と閾値の数)または中間層ユニット数、Eは平均二乗誤差、logは自然対数とする。そ して、この式の第一項はモデル一致度を表し、第二項は重みの数を表している。つまり、

モデルと実際の出力の誤差ができるだけ小さく、パラメータの数の尐ないものがいいモデ ルであるとし、選択する。

実際に以下のように参照モデルと学習理論に基づく位置制御法にAIC を組み込み、シミ ュレーションをした。シミュレーションでは重みの数を5、15、100、5000に変えてみた。

さらに、シミュレーション時間の結果も示す。

図51:AICの導入

図52:AICの比較(Data Nunber 8200時)とAICのシミュレーション結果

r C

C

P

Pn ys + y

+

+

+

NN

r C

C

P

Pn ys + y

+

+

+

NN

d

r C

C

P

Pn ys + y

+

+

+

NN

r C

C

P

Pn ys + y

+

+

+

NN

d

AIC AIC

9000 9200 9400 9600 9800 10000 -2.5

-2 -1.5 -1 -0.5 0 0.5x 105

Data Number

AIC

5000 100 15 5

9000 9200 9400 9600 9800 10000 -2.5

-2 -1.5 -1 -0.5 0 0.5x 105

Data Number

AIC

5000 100 15 5

5 15 100

-1.7 -1.6 -1.5 -1.4 -1.3 -1.2 x 10

5

重みの数

AIC

5 15 100 5000

-1.7 -1.6 -1.5 -1.4 -1.3 -1.2 x 10

5

重みの数

AIC

5000

表12:シミュレーション時間の結果

今回の結果は出力yが収束しているものを用いている。AIC は小さいほうがいいモデルで あることを示す。結果をみると、重みの数が5や15のAICの結果が重みの数が100や5000 のAICの結果より小さいので、中間層の重みの数が5や15 のモデルがより参照モデルの 結果に実際の制御対象に近くなっていることを表している。さらに、計算時間を中間層の 重みの数が5、15、100、5000で比べると、重みの数が5のときが一番小さくなっており、

位置制御においてコンピュータ演算処理の負担を減らすことができると考える。しかし、

今回は重みの数15のモデルは重みに対するAICが最小な点ではないが、外乱やモデル化誤 差、非線形特性が不明な制御対象に適用する場合、学習できる重みの数に余裕を持たすた めに15を選択した。

4.8 RBF への発展

4.8.1 RBF とは

RBF(radial basis function)ネットワークは、非線形関数を円形の等高線を持つ基底関数 で展開する方法であり、関数近似に利用されるが、パターン識別法として利用することも 可能である。まず、M.J.D.PowellやC.A.Michelliにより、与えられたデータ間をつなぐ保 管法として研究が行われた。D.S.BroomheadとD.Loweはデータ点から尐数の点をランダ ムで選び、その点の位置にユニット配置を行い、次に教師データに基づき重みを求める構 成法を提案した。RBF ネットワークは、階層型ニューラルネットワークと比較して、いく つかの優れた点が指摘されている。それは、ネットワークの一部分だけを学習することが 可能なこと、ユニットの配置に関するパラメータと重みのパラメータを別々の手法で学習 可能であり、後者だけの問題ととらえれば簡単な線形式の最小 2 乗問題に帰着されること などである。しかし、一般に RBF ネットワークではより多くのユニットが必要とされる。

RBFネットワークは正規化理論(regularization theory)と関連して、汎化性の問題について も盛んに研究が行われている。

17.7500 16.5940

14.8280 11.2190

計算時間 [s]

5000 100

15 重みの数 5

17.7500 16.5940

14.8280 11.2190

計算時間 [s]

5000 100

15

重みの数 5

4.8.2 ネットワークモデル

RBF ネットワークを図示する。

xR

nは入力ベクトルで、このベクトルはそのまま各ユ

ニットへの入力となる。各ユニットではあらかじめ定義されているciRn(i=1,・・・,M)との

差が求められ、そのユークリッドノルム

xc

i が計算される。各ユニットは

xc

i を引数

とする単調減尐関数

  xc

i

を出力し、それに重みaiを掛けたものを加え合わせた

 

M

i

i

i

x c

a x

f

1

)

( 

・・・(61)

をネットワーク出力とする。”radical”(放射状)の語はが

   

xに関してciを中心とした同 心円状の等高線をもつ関数値を出力することに由来している。具体的な関数形としては

 

 

 

 exp

22

)

( 

r r

0 ,

r

0

・・・(62)

2 2

21

) 1 (

c r r

c

0 ,

r

0

・・・(63)

などがよく用いられている。これらの関数はいずれも正のrに関して単調減尐し、また有限 のrで0とならず、台(support)は無限に広がっている。これらの関数は、任意のxに対し てすべての

   

0でない値を持つため入力されたxに近いciとaiのみを学習するような 局所的な学習が困難であるが、逆にどんなxに対してもすべてのユニットが非0 の値を出 力するため、数値計算的な問題は尐ない。

4.8.3 勾配に基づく学習

RBFネットワークにおいても、階層型ニューラルネットワークにおける誤差逆伝播法同様、

2乗誤差の勾配に基づき、学習の必要なパラメータを変化させることが可能である。ここで は、表のモデルに基づき2乗誤差の勾配を導出する。勾配の各要素は

関連したドキュメント