• 検索結果がありません。

基底関数ネットワーク

N/A
N/A
Protected

Academic year: 2021

シェア "基底関数ネットワーク"

Copied!
44
0
0

読み込み中.... (全文を見る)

全文

(1)

6.基底関数ネットワーク(Basis Function Network)

6-1 基底関数ネットワーク研究の背景 (1)(階層型)ニューラルネットワークの問題点の回避 ・設計性の悪さ ・ローカルミニマム問題 (2)級数展開の利用 基底関数が周期関数 フーリエ級数

(2)
(3)
(4)

×

×

×

×

信 号 F1 F2 F3 F4

フーリエ級数

フーリエ係数

(5)
(6)

・・・・

スペクトル

F1 F2 F3 F4 F1 F2 F3 スペ ク ト ル

・・・・

それぞれの波の成分が どれぐらいふくまれるか F4 信号の特徴が分かる 1Hz 2Hz 8Hz 周波数 フーリエ係数の意味

(7)

フーリエ係数

信号がどのような成分から成り立っているか いつ,その成分が現れているのか

×

ウェーブレット理論

いつ,その成分が現れているのか

(8)

ウェーブレット関数

(例) Harr ウェーブレット 一部に局在する関数

ψ

ab :基底関数

:基底の幅を決める :基底の位置を決める

ψ

00

ψ

10

ψ

11

ψ

20

ψ

21

ψ

30

ψ

-10

(9)
(10)

-1 0

W00

W11

W10

W20

W21

W22

W23

×

×

×

×

×

×

×

×

信 号

ウェーブレット級数

(11)
(12)

信号解析

時間 周波数 (関数の幅) スペクトル値

W

ij” ウェーブレット係数

(13)
(14)

ウェーブレット解析例

加速時 減速時

(縦軸:周波数,横軸:ステップ数(サンプリングレート22050 /sec))

(15)

(JPEG,1/96圧縮) (JPEG2000,1/96圧縮)

出典:http://www.zdnet.co.jp/news/0012/04/jpeg2000.html

(16)

6.基底関数ネットワーク(Basis Function Network)

6-1 基底関数ネットワーク研究の背景 (1)(階層型)ニューラルネットワークの問題点の回避 ・設計性の悪さ ・ローカルミニマム問題 (2)級数展開の利用 基底関数が周期関数 フーリエ級数

(17)

−2 基底関数ネットワークの基礎 (1)基本構造 さっきのフーリエ級数展開の図

=

i i i

g

x

F

x

f

(

)

(

)

(18)

(2)基底関数の種類 ・ガウス関数

RBF(Radial Basis Function)ネットワーク ・ウェーブレット関数 詳しくはのちほど.... ・ファジィメンバーシップ関数 前件部:相補型メンバーシップ関数 後件部:シングルトン ・その他

(19)

(3)特徴 ・ローカルミニマム問題の回避 ・設計性の向上 ・汎化能力の低下 (4)演算方法 ・学習 ・最小二乗法(逆行列計算) ウェーブレットネットワーク (5)応用例

(20)

wavelet

” ってなに?

(21)

“wavelet” ってなに?

ウェーブレット理論(Wavelet Theory)

(22)

“wavelet” ってなに?

小波,さざなみ

ウェーブレット理論(Wavelet Theory)

(23)

“wavelet” ってなに?

小波,さざなみ

ウェーブレット理論(Wavelet Theory)

さざなみ

”を利用した理論

(24)

“wavelet” ってなに?

小波,さざなみ

ウェーブレット理論(Wavelet Theory)

“さざなみ”を利用した理論

(25)

ウェーブレットニューロン(Wavelet Neuron

1 w 2 w n w 1 x 2 x n x y θ ニューロンの数式モデル θ :閾値

(26)

ウェーブレットニューロン(Wavelet Neuron

1 f 2 f n f 1 x 2 x y ) ( 0 , 0 xk Ψ ) ( 0 , 1 xk Ψ ) ( ,m k m x Ψ 0 , 0 k w 0 , 1 k w

k x fk (xk ) Weight Wavelet Basis m m k w ,

1 w 2 w n w 1 x 2 x n x y θ ニューロンの数式モデル 非線形シナプスニューロン k f n x 非線形シナプス θ :閾値 ・局所的な非線形性の記述 ・ローカルミニマム問題の回避 期待される効果 ・設計性の向上

(27)

Approximation of a Function by a Nonlinear Synapse

Leaning Data

(101 points, sampling interval 0.01)

Piecewise Linear Part

(28)

) 0 , 0 ( ψ ) 0 , 1 ( ψ ψ(1,1) ) 0 , 2 ( ψ ψ(2,1) ψ(2,2) ) 0 , 3 ( ψ ψ(3,1) ψ(3,2) ψ(3,3) ) 0 , (M ψ ψ(M,1) ψ(M,M) 1 0 -1/2 1/2

(

)

⎪⎩ ⎪ ⎨ ⎧ ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ ≤ = otherwise x x x 0 2 1 cos ) (

π

ψ

) ( ) ( ) , (a b x =

ψ

axb

ψ

∑∑

∞ = = = 0 0 ) , ( ) , ( ( ) ) ( a a b b a b a x W x f

ψ

Convergent series (1996) Convex wavelet Non-Orthogonal Convex Compactly Supported Smooth

(29)

Approximation of a Function by a Nonlinear Synapse

Compactly Supported Convex Wavelet

(M=15, 136 weights ) Leaning Time:100 times

Generalization Set Learning Data

(30)

Approximation of a Function by a Nonlinear Synapse Harr Wavelet

Leaning Time:100 times

Generalization Set Learning Data

(31)

Approximation of a Function by a Nonlinear Synapse Non-convex Wavelet

Leaning Time:100 times

Generalization Set Learning Data

(32)

R.M.S.Error vs. Number of Bases

(33)

Application to System Modeling

Modeling of Nonlinear Dynamical System

Modeling(Learning) Prediction 2 1 2 1 0.5 0.5 0.5 1 5 − − + = +tt + t t t t x x x x x x ) 0 . 1 , 3 . 0 , 2 . 0 (x0 = x1 = x2 =

(34)

1 f 2 f n f t x

Leaning Phase (Modeling)

The Wavelet Neuron Achieving Modeling and Prediction

D D D 1 − t x 2 − t x n t x t t t x x error = ˆ

1 f 2 f n f t t x x = ˆ D D D 1 − t x 2 − t x n t x t Iterated Prediction Phase

(35)

R.M.S.Error vs. Number of Synapses

Number of Synapses

The 3 synapses (delay elements) are employed here.

(36)

Mapping Functions Obtained by Leaning

1 f 2 f 3 f t x D D D 1 − t x 2 − t x n t x t 1 f x f1(x) x f2 f2(x) x f3 f3(x) Real

(37)

Results of Iterated Prediction

Wavelet Neuron 4-Layerd Neural Network

(38)

Solving differential equation Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅⋅ n n dx y d dx y d dx dy y x f

(39)

Solving differential equation

= i i i W y

ψ

Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅⋅ n n dx y d dx y d dx dy y x f

(40)

Solving differential equation

= i i i W y

ψ

= i i i dx d W dx dy

ψ

= i i i dx d W dx y d 2 2 2 2

ψ

= i n i n i n n dx d W dx y d

ψ

known Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅⋅ n n dx y d dx y d dx dy y x f

(41)

Solving differential equation

= i i i W y

ψ

= i i i dx d W dx dy

ψ

= i i i dx d W dx y d 2 2 2 2

ψ

= i n i n i n n dx d W dx y d

ψ

known Differential equation 0 , , , , , 2 2 = ⎟⎟⎠ ⎞ ⎜⎜⎝ ⎛ ⋅⋅ n n dx y d dx y d dx dy y x f 入出力関係 Wi y 学習で を求める

(42)

x ) 0 , 0 ( ψ ) 0 , 1 ( ψ ) , (M M ψ W(M,M) ) 0 , 1 ( W ) 0 , 0 ( W Σ y( x) x dx dψ(0,0) dx dψ(1,0) dx dψ(M,M) ) , (MM W ) 0 , 1 ( W ) 0 , 0 ( W Σ dy )dx(x dx dy ) ( 1 x P ) ( 2 x P y

x

f ( x) ×

+

× ) , ( ba W :common y y

Riccati differential equation (nonlinear differential equation)

1 ) 0 ( , 0 ) ( ) ( ) ( = + P1 x y + P2 x y2 = y = dx dy x f 1 2 / 11/2 dx dψ π / 2 π / 1 2 / 11/2 ψ

(43)

Solution of Riccati differential equation

(44)

Conclusions ウェーブレット (wavelet) 時間-周波数解析 高い圧縮能力 ウェーブレットニューロン (wavelet neuron) 局所的な非線形性の記述 ローカルミニマム問題の回避 設計性の向上 高い汎化能力

参照

関連したドキュメント

劣モジュラ解析 (Submodular Analysis) 劣モジュラ関数は,凸関数か? 凹関数か?... LP ニュートン法 ( の変種

(2)-1 無医地区、準無医地区、医師少数区域、少数スポットの関係について

Spira, “A distributed algorithm for minimum-weight spanning trees,” ACM Trans. Topkis, “Concurrent broadcast for information dissemination”,

Research Institute for Mathematical Sciences, Kyoto University...

輸入貨物の包装(当該貨物に含まれるものとされる包装材料(例えばダンボール紙、緩衝

項   目  単 位  桁   数  底辺及び垂線長 m 小数点以下3桁 境界辺長 m  小数点以下3桁

(2) 輸入郵便物が法第 69 条の 11 第 1 項第 7 号に規定する公安若しくは風俗 を害すべき物品、同項第 8 号に規定する児童ポルノ、同項第

5Gサービスを実現するRANの構成と,無 線アクセスネットワーク技術としてLTE-NR Dual Connectivity *7 ,Beam Management