6.基底関数ネットワーク(Basis Function Network)
6-1 基底関数ネットワーク研究の背景 (1)(階層型)ニューラルネットワークの問題点の回避 ・設計性の悪さ ・ローカルミニマム問題 (2)級数展開の利用 基底関数が周期関数 フーリエ級数×
×
×
×
+
信 号 F1 F2 F3 F4フーリエ級数
フーリエ係数・・・・
スペクトル
F1 F2 F3 F4 F1 F2 F3 スペ ク ト ル・・・・
それぞれの波の成分が どれぐらいふくまれるか F4 信号の特徴が分かる 1Hz 2Hz 8Hz 周波数 フーリエ係数の意味フーリエ係数
信号がどのような成分から成り立っているか いつ,その成分が現れているのか×
○
ウェーブレット理論
○
いつ,その成分が現れているのかウェーブレット関数
(例) Harr ウェーブレット 一部に局在する関数ψ
ab :基底関数a
b
:基底の幅を決める :基底の位置を決めるψ
00ψ
10ψ
11ψ
20ψ
21ψ
30ψ
-10W
-1 0W00
W11
W10
W20
W21
W22
W23
・
・
×
+
×
×
×
×
×
×
×
信 号ウェーブレット級数
・
・
信号解析
時間 周波数 (関数の幅) スペクトル値・
・
・
“
W
ij” ウェーブレット係数ウェーブレット解析例
加速時 減速時
(縦軸:周波数,横軸:ステップ数(サンプリングレート22050 /sec))
(JPEG,1/96圧縮) (JPEG2000,1/96圧縮)
出典:http://www.zdnet.co.jp/news/0012/04/jpeg2000.html
6.基底関数ネットワーク(Basis Function Network)
6-1 基底関数ネットワーク研究の背景 (1)(階層型)ニューラルネットワークの問題点の回避 ・設計性の悪さ ・ローカルミニマム問題 (2)級数展開の利用 基底関数が周期関数 フーリエ級数6−2 基底関数ネットワークの基礎 (1)基本構造 さっきのフーリエ級数展開の図
∑
⋅
=
i i ig
x
F
x
f
(
)
(
)
(2)基底関数の種類 ・ガウス関数
RBF(Radial Basis Function)ネットワーク ・ウェーブレット関数 詳しくはのちほど.... ・ファジィメンバーシップ関数 前件部:相補型メンバーシップ関数 後件部:シングルトン ・その他
(3)特徴 ・ローカルミニマム問題の回避 ・設計性の向上 ・汎化能力の低下 (4)演算方法 ・学習 ・最小二乗法(逆行列計算) ウェーブレットネットワーク (5)応用例
“
wavelet
” ってなに?
“wavelet” ってなに?
ウェーブレット理論(Wavelet Theory)
“wavelet” ってなに?
小波,さざなみ
ウェーブレット理論(Wavelet Theory)
“wavelet” ってなに?
小波,さざなみ
ウェーブレット理論(Wavelet Theory)
“
さざなみ
”を利用した理論
“wavelet” ってなに?
小波,さざなみ
ウェーブレット理論(Wavelet Theory)
“さざなみ”を利用した理論
ウェーブレットニューロン(Wavelet Neuron)
∑
1 w 2 w n w 1 x 2 x n x y θ ニューロンの数式モデル θ :閾値ウェーブレットニューロン(Wavelet Neuron)
∑
1 f 2 f n f 1 x 2 x y ) ( 0 , 0 xk Ψ ) ( 0 , 1 xk Ψ ) ( ,m k m x Ψ 0 , 0 k w 0 , 1 k w∑
k x fk (xk ) Weight Wavelet Basis m m k w ,∑
1 w 2 w n w 1 x 2 x n x y θ ニューロンの数式モデル 非線形シナプスニューロン k f n x 非線形シナプス θ :閾値 ・局所的な非線形性の記述 ・ローカルミニマム問題の回避 期待される効果 ・設計性の向上Approximation of a Function by a Nonlinear Synapse
Leaning Data
(101 points, sampling interval 0.01)
Piecewise Linear Part
) 0 , 0 ( ψ ) 0 , 1 ( ψ ψ(1,1) ) 0 , 2 ( ψ ψ(2,1) ψ(2,2) ) 0 , 3 ( ψ ψ(3,1) ψ(3,2) ψ(3,3) ) 0 , (M ψ ψ(M,1) ψ(M,M) 1 0 -1/2 1/2
(
)
⎪⎩ ⎪ ⎨ ⎧ ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ ≤ = otherwise x x x 0 2 1 cos ) (π
ψ
) ( ) ( ) , (a b x =ψ
ax − bψ
∑∑
∞ = = = 0 0 ) , ( ) , ( ( ) ) ( a a b b a b a x W x fψ
Convergent series (1996) Convex wavelet Non-Orthogonal Convex Compactly Supported SmoothApproximation of a Function by a Nonlinear Synapse
Compactly Supported Convex Wavelet
(M=15, 136 weights ) Leaning Time:100 times
Generalization Set Learning Data
Approximation of a Function by a Nonlinear Synapse Harr Wavelet
Leaning Time:100 times
Generalization Set Learning Data
Approximation of a Function by a Nonlinear Synapse Non-convex Wavelet
Leaning Time:100 times
Generalization Set Learning Data
R.M.S.Error vs. Number of Bases
Application to System Modeling
Modeling of Nonlinear Dynamical System
Modeling(Learning) Prediction 2 1 2 1 0.5 0.5 0.5 1 5 − − + = + − t − t + t t t t x x x x x x ) 0 . 1 , 3 . 0 , 2 . 0 (x0 = x1 = x2 =
∑
1 f 2 f n f t xLeaning Phase (Modeling)
The Wavelet Neuron Achieving Modeling and Prediction
D D D 1 − t x 2 − t x n t x − t xˆ t t x x error = − ˆ
∑
1 f 2 f n f t t x x = ˆ D D D 1 − t x 2 − t x n t x − t xˆ Iterated Prediction PhaseR.M.S.Error vs. Number of Synapses
Number of Synapses
The 3 synapses (delay elements) are employed here.
Mapping Functions Obtained by Leaning
∑
1 f 2 f 3 f t x D D D 1 − t x 2 − t x n t x − t xˆ 1 f x f1(x) x f2 f2(x) x f3 f3(x) RealResults of Iterated Prediction
Wavelet Neuron 4-Layerd Neural Network
Solving differential equation Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅ ⋅⋅ n n dx y d dx y d dx dy y x f
Solving differential equation
∑
= i i i W yψ
Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅ ⋅⋅ n n dx y d dx y d dx dy y x fSolving differential equation
∑
= i i i W yψ
∑
= i i i dx d W dx dyψ
∑
= i i i dx d W dx y d 2 2 2 2ψ
∑
= i n i n i n n dx d W dx y dψ
… known Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅ ⋅⋅ n n dx y d dx y d dx dy y x fSolving differential equation
∑
= i i i W yψ
∑
= i i i dx d W dx dyψ
∑
= i i i dx d W dx y d 2 2 2 2ψ
∑
= i n i n i n n dx d W dx y dψ
… known Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅ ⋅⋅ n n dx y d dx y d dx dy y x f 入出力関係 Wi y 学習で を求めるx ) 0 , 0 ( ψ ) 0 , 1 ( ψ ) , (M M ψ W(M,M) ) 0 , 1 ( W ) 0 , 0 ( W Σ y( x) x dx dψ(0,0) dx dψ(1,0) dx dψ(M,M) ) , (MM W ) 0 , 1 ( W ) 0 , 0 ( W Σ dy )dx(x dx dy ) ( 1 x P ) ( 2 x P y
x
f ( x) ×+
× ) , ( ba W :common y yRiccati differential equation (nonlinear differential equation)
1 ) 0 ( , 0 ) ( ) ( ) ( = + P1 x y + P2 x y2 = y = dx dy x f 1 2 / 1 − 1/2 dx dψ π / 2 π / 1 2 / 1 − 1/2 ψ
Solution of Riccati differential equation
Conclusions ウェーブレット (wavelet) 時間-周波数解析 高い圧縮能力 ウェーブレットニューロン (wavelet neuron) 局所的な非線形性の記述 ローカルミニマム問題の回避 設計性の向上 高い汎化能力