• 検索結果がありません。

1 0/1, a/b/c/ {0, 1} S = {s 1, s 2,..., s q } S x = X 1 X 2 X 3 X n S (n = 1, 2, 3,...) n n s i P (X n = s i ) X m (m < n) P (X n = s i X n 1 = s j )

N/A
N/A
Protected

Academic year: 2021

シェア "1 0/1, a/b/c/ {0, 1} S = {s 1, s 2,..., s q } S x = X 1 X 2 X 3 X n S (n = 1, 2, 3,...) n n s i P (X n = s i ) X m (m < n) P (X n = s i X n 1 = s j )"

Copied!
51
0
0

読み込み中.... (全文を見る)

全文

(1)

通信とネットワーク

(Communication and Network)

第10回,第11回:情報源符号化 内容

一意復号可能な符号

瞬時復号可能な符号

最適符号

ハフマン符号

情報エントロピー

(2)

1

定義

シンボル:情報を表す記号:

0/1, a/b/c/

· · ·

アルファベット:シンボルの集合:

{0, 1}

,英語のアルファベット

情報源アルファベット:情報源が出力するアルファベット  ここでは,有限集合

S =

{s

1

, s

2

, . . . , s

q

}

を考える。

情報源

S

:シンボル列

x = X

1

X

2

X

3

· · ·

を出力する。  

X

n

∈ S (n = 1, 2, 3, . . .)

は,

n

番目のシンボルを表す確率変数

記憶のない情報源:  

n

番目に出力されるシンボルが

s

iである確率

P (X

n

= s

i

)

が,過去の   シンボル

X

m

(m < n)

に依存しない。

記憶のある情報源の例:マルコフ情報源  直前のシンボルに応じて,シンボルを出力する確率が定まる。  

P (X

n

= s

i

|X

n−1

= s

j

)

が与えられる。

(3)

p

i

p

ij は確率であるので,次式が成立する。

p

i

≥ 0

p

ij

≥ 0

q

i=1

p

i

= 1

q

i=1

p

ij

= 1

情報源の例:

サイコロ:情報源アルファベットは,サイコロの目の数。

天気:情報源アルファベットは,

{

晴れ,曇り,雨,雪

}

本:情報源アルファベットは,本に使われている文字の全体。

符号化:情報源のシンボル列を,通信路の特性に合わせたシンボル列 に変換する。

符号シンボル:情報源を符号化するためのシンボル

符号アルファベット:符号シンボルの全体

T =

{t

1

, . . . , t

r

}

基数

r

:符号シンボルの数

(4)

2

元符号

2

種類のシンボルを使う。  

T = Z

2

≡ {0, 1}

として,最も広く用いられている。

• 3

元符号:

3

種類のシンボルを使う。  モールス信号,符号と符号の間に区切りの無音部分がある。

⇒ 3

元符号。

符号化:情報源シンボルを

(

複数の

)

符号シンボルで表す。

符号語

w

:符号シンボルからなる有限列

符号語長

|w|

w

に含まれる符号シンボルの数

ϵ

:長さ

0

の空語

(

これも符号語

)

とみなす。

T

n:長さ

n

の符号語の全体

T

:符号語の全体

T

+

= T

− {ϵ}

:空語を除いた符号語の全体

T

=

T

n

(5)

符号

C : S → T

+

(S

から

T

+への写像

)

• w

i

=

C(s

i

)

ならば,符号語

w

iは情報源シンボル

s

iを表していると考え ることができる。

誤解が生じないときは,

C

で情報源シンボルを表す符号語全体の集合 を表す。

C = {w

1

, w

2

, . . . , w

q

}

• C

S

の要素列の集合

S

の写像へ拡張できる。

C : s = s

i1

s

i2

s

i3

· · · s

in

7→ t = w

i1

w

i2

w

i3

· · · w

in ただし,

w

in

=

C(s

in

)

である。

この写像の値域は,以下のようになる。

C

=

{w

i1

w

i2

w

i3

· · · w

in

| w

ij

∈ C, n ≥ 0}

• l

i

=

|w

i

|

:符号長

L(

C)

:符号

C

の平均符号長:

L(

C) =

q

i=1

p

i

l

i

(6)

1.1

符号化の目的

処理が容易で一意な復号

t

7→ s

が存在する。

平均符号長

L

(

C)

が小さい。 符号の例:サイコロの目が

i (i = 1, 2, 3, 4, 5, 6)

2

元符号で表す。

• s

i

= i

• p

i

=

16

• w

1

= 1, w

2

= 10, w

3

= 11, w

4

= 100, w

5

= 101, w

6

= 110

• s = s

1

s

2

s

5

7→ t = 110101

平均符号長:

1

6

(1 + 2 + 2 + 3 + 3 + 3) =

7

3

一意復号可能か? 

(7)

1.2

一意復号可能な符号

一意復号可能:

(

略して

u.d.

と書く。

)

C : S

→ T

が単射であること。すなわち,

2

つの符号語の列が

u

1

· · · u

m

= v

1

· · · v

n

(u

1

, . . . , u

m

, v

1

, . . . , v

n

∈ C)

を満たすならば,

m = n

かつ

u

i

= v

iであることである。

定理:符号語長がすべて同じならば,

C

は一意復号可能

サイコロの場合で符号長が等しい例:

w

1

= 001, w

2

= 010, w

3

= 011, w

4

= 100, w

5

= 101, w

6

= 110

ブロック符号:符号語の長さがすべて等しい符号

長さが同じではなくても,一意復号可能な符号は存在する。

w

1

= 0, w

2

= 01, w

3

= 011, w

4

= 0111, w

5

= 01111, w

6

= 011111

例:

t = 001011

(8)

1.2.1

サーディナス・パターソンの定理

一意復号可能な符号の条件を考える。次の符号語の集合を定義する。

C

0

=

C

C

n

=

{w ∈ T

+

| uw = v, u ∈ C, v ∈ C

n−1

or u

∈ C

n−1

, v

∈ C}

C

=

n≥1

C

n

C

1

=

{w ∈ T

+

| uw = v, u, v ∈ C}

最終的には

C

nは,周期的な集合になる。

C = {1, 10, 11, 100, 101, 110}

の場合  

C

1

=

{0, 1, 00, 01, 10}

C

2

=

{0, 1, 00, 01, 10}

C

=

{0, 1, 00, 01, 10}

C = {0, 01, 010, 111}

の場合

(9)

C = {0, 01, 011, 0111, 01111, 011111}

の場合  

C

1

=

{1, 11, 111, 1111, 11111}

C

2

= ϕ

C

3

= ϕ

C

=

{1, 11, 111, 1111, 11111}

サーディナス・パターソンの定理:  符号が一意復号可能であるための必要十分条件は,次式が成立する こと。

C

∩ C = ϕ

証明は参考書を見ること

(

本で

5

ページ程度必要

)

• C = {1, 10, 11, 100, 101, 110}

は,一意復号不可能

• C = {0, 01, 011, 0111, 01111, 011111}

は,一意復号可能

(10)

1.3

瞬時復号可能

• w

1

= 0, w

2

= 01, w

3

= 11

という符号を考える。

• C

1

=

{1}

C

2

=

{1}

C

=

{1}

サーディナス・パターソンの定理より一意復号可能  

0111110

· · ·

s

2

s

3

s

3

· · ·

01111110

· · ·

s

1

s

3

s

3

s

3

· · ·

連続する

1

の数が分かってから,はじめの

1

01

11

に属するかわかる。

• w

1

= 0, w

2

= 10, w

3

= 11

という符号を考える。 符号化されたものを先頭から見ていけば,すぐに符号語がわかる。

0101111100

· · ·

s

1

s

2

s

3

s

3

s

2

s

1

· · ·

瞬時復号可能:  任意の符号語列

w

i1

w

i2

· · · w

in に対して,その符号語列で始まる任意 の符号列

w

w

· · · w

· · ·

(

符号列であるので,符号語の並びでなくて

(11)

瞬時符号:瞬時復号可能な符号

語頭符号:どの符号語

w

iも他の符号語

w

j

(j

̸= i)

の語頭

(

先頭部

)

になっ ていな符号。

⇒ C

1

= ϕ

となる。

定理:  ある符号が瞬時復号可能であるための必要十分条件は,その符号が 語頭符号

(

C

1

= ϕ)

となることである。

(12)
(13)

瞬時符号

(14)
(15)

クラフトの不等式 基数

r

の符号において,符号語長

l

1

, l

2

, . . . , l

qの瞬時符号が存在するため の必要十分条件は, q

i=1

r

−li

≤ 1

を満たすことである。

(

証明の概略

)

一般性を失うことなく,

l

1

≤ l

2

≤ · · · ≤ l

qを仮定する。

• l = l

q

(l

iの最大値

)

とする。高さ

l

の木を考えれば良い。

符号長

l

iの符号から降って行ったときに存在する葉

(

木の先端

)

の数は,

r

l−li個である。

符号語を木の節点に割り当てるとき,その下の接点に符号語を割り当 てないようにする。

すなわち,2つの符号語から枝を伝わって葉の方へ降って行ったとき に,葉が両者で重ならないようにする。

(16)

• l

1

≤ l

2

≤ · · · ≤ l

q で, q

i=1

r

l−li

≤ r

l だから,符号語を左から順番に割り当てることができる。

逆に,

qi=1

r

−li

> 1

ならば, q

i=1

r

l−li

> r

l となり,符号語の下にある葉が重なるので,瞬時復号不可能になる。

(17)
(18)

1.3.2

マクミランの不等式

瞬時符号

一意復号可能

「一意復号可能」だけならば,符号長に関する条件が,クラフトの不 等式よりもゆるくなるか?

そうはならない。 マクミランの不等式 基数

r

の符号において,符号語長

l

1

, l

2

, . . . , l

qの一意復号可能符号が存在 するための必要十分条件は, q

i=1

r

−li

≤ 1

を満たすことである。

(

クラフトの不等式と同じ

)

(19)

• l = max(l

1

, l

2

, . . . l

q

)

• m = min(l

1

, l

2

, . . . l

q

)

また,

K

を次のように定義する。

K =

q

i=1

r

−li

• K

n

(K

n

)

を展開すれば。その各項は次の形で書ける。

r

−li1

× r

−li2

× · · · × r

−lin

= r

−j ここで,

j = l

i1

+ l

i2

+

· · · + l

in

• m ≤ l

i1

, l

i2

, . . . , l

in

≤ l

より,

mn

≤ j ≤ ln

となる。

従って,

K

nは次の形で書くことができる。

K

n

=

ln

j=mn

N

j,n

r

−j

(20)

• N

j,nは,符号長が

j

となる

n

個の符号語の列の数と等しい。すわなち,

n

個の符号語の列

w

i1

w

i2

· · · w

inで,この列の符号シンボルの総数が

j

個 であるものの数となる。

このとき,符号シンボルの数が

j

であるから,その符号列は

r

j 個以上 のものを表すことができないので,次式が成立する。

N

j,n

≤ r

j

従って,次式が成立する。

K

n

=

ln

i=mn

N

j,n

r

−j

ln

i=mn

r

j

r

−j

=

ln

i=mn

1 = (l

− m)n + 1

上式は

n

を変化させると,

K

nは指数関数的に,右辺は

1

次関数的に変 化する。

• K > 1

の場合,

n

を大きくすると上式が成立しなくなる。

(21)

2

ハフマン符号

• w

1

, w

2

, . . . , w

q:符号語

• l

1

, l

2

, . . . , l

q

w

1

, w

2

, . . . , w

q の符号長

• p

1

, p

2

, . . . , p

q

w

1

, w

2

, . . . , w

q の出現確率

• L(C)

:平均符号長

L(

C) =

q

i=1

p

i

l

i

例:

p

1

= 1/2

p

2

= 1/4

p

3

= 1/8

p

4

= 1/8

符号

C

1

w

1

= 00

w

2

= 01

w

3

= 10

w

4

= 11

とする。

L(

C

1

) =

1

2

× 2 +

1

4

× 2 +

1

8

× 2 +

1

8

× 2 = 2

符号

C

2

w

1

= 0

w

2

= 10

w

3

= 110

w

4

= 111

とする。

L(

C

1

) =

1

2

× 1 +

1

4

× 2 +

1

8

× 3 +

1

8

× 3 = 1.75

(22)

最適符号

(

コンパクト符号

)

r

p

iが与えられたとき,平均符号長が最小になる一意復号可能な符号

定理

(

最適符号の存在

)

:  任意の情報源

S

は,任意の整数

r

に対して,最適な

r

元符号を持つ。

(

証明は,平均符号長がある値以下の符号の種類が有限であることを使 って行う。詳細は参考書を参照すること。

)

(23)

2.1

2

元ハフマン符号

• 2

元符号:符号アルファベット

T = Z

2

=

{0, 1}

情報源

S

:  シンボル:

s

1

, s

2

, . . . , s

q−2

, s

q−1

, s

q  出現確率:

p

1

, p

2

, . . . , p

q−2

, p

q−1

, p

q

• s

s

q−1

s

qをまとめたシンボル

(s

= (s

q−1

∨ s

q

))

とする。

縮退情報源

S

は次のようになる。  シンボル:

s

1

, s

2

, . . . , s

q−2

, s

 出現確率:

p

1

, p

2

, . . . , p

q−2

, (p

q−1

+ p

q

)

• S

の符号

C

=

{w

1

, w

2

, . . . , w

q−2

, w

}

が与えられたとき,

S

の符号

C = {w

1

, w

2

, . . . , w

q−2

, w

0, w

1

}

を与えることができる。

• C

が瞬時符号ならば,

C

も瞬時符号である。

(24)

2

元ハフマン符号の構成

1.

S

(0)

=

S

k = 1

とおく。

2. k == q

ならば縮退した情報源のシンボル数が

1

になったので,符号

C

(q)

= ϵ

を割り当て,

goto 5

。そうでなければ,次へ進む。

3.

S

(k)のシンボルの中で,出現確率が最も低い

2

つのシンボルを縮退させ た情報源

S

(k+1)を作成する。

4. k = k + 1

goto 2

5. k == 0

ならば終了。そうでなければ,次へ進む。

6.

S

(k−1)を縮退して

S

(k)を構成した時に作成したシンボルに対する

C

(k) の符号語を

w

(k)とする。縮退する前の

2

つのシンボルに符号語

w

(k)

0

w

(k)

1

を割り当て,

S

(k−1)の符号

C

(k−1)を作成する。

7. k = k

− 1

goto 5

(25)

2.1.1

ハフマン符号の構成例

(26)

2.1.2

縮約と平均符号長

1. p

(k)

S

(k−1)から

S

(k)に縮退するときに作成したシンボルの出現確率。

2. p

(ki −1)

p

(kj −1):縮退する前の

2

つのシンボルの出現確率。 次式が成立する。

p

(k)

= p

(ki −1)

+ p

(kj −1)

3. L(

C

(k−1)

)

L(

C

(k)

)

の差は,

w

(k−1)

0

1

を付加したために生じる。

L(

C

(k−1)

)

− L(C

(k)

) = p

(k)

(27)

2.1.3

2

元ハフマン符号の最適性 符号語

w

1

w

2が兄弟:  ある符号語

w

に対して,

w0

w1

という形をしている。 補題 すべての情報源

S

は,符号長が最大の符号語が兄弟であるような,

2

元 最適符号

D

をもつ。

(

証明

)

一意復号可能な符号に対して,符号長がすべて等しい瞬時復号可能な符 号が存在するため,以下,すべての符号を瞬時復号可能としても一般性 を失わない。定理

(

最適符号の存在

)

より,

S

に対する

2

元最適符号

D

が存 在する

(1

つとは限らない

)

。符号

D

のすべての符号長の和を

σ(

D)

で表す。

σ(

D) =

i

l

i いま,その最適符号の中で

σ(

D)

が最小になるものを選び出し,

D

0とお く。

D

0の符号長が最大の符号語は,それより長さが

1

短い符号語

w

に対 して,

w0

あるいは

w1

という形をしている。このとき,この

2

つのうちの どちらかの符号語が

D

0の中に存在しないとする。

D

は瞬時復号可能であ

(28)

るから,符号語

w

D

0に含まれない。

w0

あるいは

w1

の一方しか存在し ないならば,それを

w

に置き換えても瞬時復号可能である。その符号を

D

0 とすれば,

D

も最適符号で,

σ(

D

0

) = σ(

D

0

)

− 1

となる。これは,

D

0 の選択に矛盾する。 定理

(

ハフマン符号は最適符号

)

2

元ハフマン符号は最適符号である。

(

証明

)

ハフマン符号が瞬時符号であることは構成から明らか。最適符号である ことをシンボル数

q

の数学的帰納法で示す。 シンボル数が

1

のとき,

C = {ϵ}

L(

C) = 0

で最適。 シンボル数が

q

− 1

のときにハフマン符号は最適符号であるものとする。 シンボル数が

q

のときのハフマン符号を

C

とし,

s

1

, . . . , s

q−2

, s

q−1

, s

q

(

シ ンボルの出現確率が降順

)

を縮約して,

s

1

, . . . , s

q−2

, (s

q−1

∨s

q

)

を得る。そ

(29)

上の補題により,

C

と同じ情報源に対して,最長な符号語が兄弟の関係 にある最適な符号

D

が存在する。その最長な兄弟の関係にある

2

つの符 号語がシンボル

s

i

s

j

(i < j)

を表しているものとする。ここで,

s

i

s

q−1 で,

s

j

s

q で表す符号を入れ替えた符号

D

を考える。

l

i

D

の各 符号の符号長とする。

s

i

s

j の選び方から

l

i

≥ l

q−1

l

j

≥ l

q が成立し

(l

i

, l

j

, l

q−1

, l

q ともに

D

の符号長であることに注意

)

,ハフマン符号の構 成法より

p

i

≥ p

q−1

, p

j

≥ p

q が成立する。従って,次式が成立する。

L(

D

)

− L(D)

= p

q−1

l

q−1

+ p

q

l

q

+ p

i

l

i

+ p

j

l

j

− (p

q−1

l

i

+ p

q

l

j

+ p

i

l

q−1

+ p

j

l

q

)

= (p

q−1

− p

i

)(l

q−1

− l

i

) + (p

q

− p

j

)(l

q

− l

j

)

≥ 0

従って,

L(

D) ≤ L(D

)

より,

L(

D)

も最適符号で,兄弟の関係にある最 長な符号語が

s

q−1

s

q を表している符号になる。

D

s

q−1

s

q を縮約した符号を

D

とおく。

L(

D) − L(D

) = p

q−1

+ p

q

= L(

C) − L(C

)

が成立する。帰納法の過程から

C

は最適符号であるから,

L(

C

)

≤ L(D

)

となり,

L(

C) ≤ L(D)

となる。

D

は最適符号なので,

C

も最適符号になる。

(30)

2.2

r

元ハフマン符号

基本的には,

2

元ハフマン符号と同じ。

もっとも出現確率が低い

r

個のシンボルを縮約して,

1

つのシンボル

s

を作成する。

• s

に対する符号語

w

が定まった場合,もとのシンボルに対する符号語 を,それぞれ,

w

0, w

1, . . ., w

r

とする。

• 1

回の縮約について,

r

− 1

個シンボルが減少する。

最後に

r

個のシンボルが残るようにしないと効率が下がる。

最初に,シンボル数が

n(r

− 1) + 1

個になるように,仮想的に出現確率

0

のシンボルを追加する

(n

はある整数

)

。  例:

r = 3, p

1

= 0.4, p

2

= 0.3, p

3

= 0.2, p

4

= 0.1

とする。 仮想的に

1

つのシンボル

s

5を追加し,

p

5

= 0

とする。

w

1

= 0, w

2

= 1, w

3

= 20, w

4

= 21

となる。

(31)

3

エントロピー

3.1

定義

I(s

i

)

:情報源シンボル

s

iがもつ情報の量

• I(s

i

)

に対する要求

– I(s

i

)

は,

s

iの生起確率

p

iの単調減少関数

– p

i

= 1

のとき

I(s

i

) = 0

シンボルの生起が独立

(P (s

i

s

j

) = P (s

i

)P (s

j

))

のとき

I(s

i

s

j

) = I(s

i

) + I(s

j

)

上の条件を満たすものは,次のように求まる。

I

r

(s

i

) =

− log

r

(p

i

)

r

は対数の基数である。

• r = 2

としたときの情報量には,単位

[bit]

を用いる。

(32)

エントロピー:情報源の平均情報量

H

r

(

S) =

q

i=1

p

i

I

r

(s

i

) =

q

i=1

p

i

log

r

p

i

基数を明示しない場合は以下のようになる。

H(

S) =

q

i=1

p

i

I(s

i

) =

q

i=1

p

i

log p

i

• p = 0

のとき,

p log p = 0

とする。

H(p)

:情報源

S

が,確率

p

1

− p

2

つのシンボルを出力する場合の エントロピー

H(

S) = H(p) ≡ −p log p − (1 − p) log(1 − p)

次式が成立する。

(33)
(34)
(35)

3.2

エントロピー関数の性質 エントロピー関数

H

r

(

S) = −

i

p

i

log

r

p

i

• H

r

(

S) ≥ 0

となる。  

H

r

(

S) = 0

となるための必要十分条件は,ある

i

に対して

p

i

= 1

であ る。

補題:  すべての

x > 0

に対して,

ln x

≤ x − 1

となる。等号が成立する必要 十分条件は

x = 1

である。

(ln x = log

e

x)

証明は,右辺−左辺を微分して証明する。

(36)

定理

x

i

≥ 0

y

i

> 0

i

x

i

=

i

y

i

= 1

とする。このとき,次の式が成立 する。

i

x

i

log

r

x

i

≤ −

i

x

i

log

r

y

i

(

証明

)

左辺−右辺は,前のページの補題を使うと,次のようになる。

i

x

i

log

r

y

i

x

i

=

1

ln r

i

x

i

ln

y

i

x

i

1

ln r

i

x

i

(

y

i

x

i

− 1

)

=

1

ln r

i

(y

i

− x

i

) =

1

ln r

(1

− 1) = 0

等号が成立する必要十分条件は,

y

i

/x

i

= 1

がすべての

i

に対して成立す ることである。

(37)

定理

(

エントロピーの上限

)

情報源

S

q

個のシンボルを持つとき,

H

r

(

S) ≤ log

r

q

が成立する。 等号が成立する必要十分条件は,

p

1

= p

1

=

· · · = p

q

= 1/q

である。

(

証明

)

先の命題で,

x

i

= p

i

y

i

= 1/q

とおけば,

H

r

(

S) = −

i

p

i

log

r

p

i

≤ −

i

p

i

log

r

(1/q) = log

r

q

となる。等号が成立する条件も明らか。

(38)

3.3

エントロピーと平均符号長 定理

C

が情報源

S

の一意復号可能な

r

元符号ならば,

L(

C) ≥ H

r

(

S)

が成立する。

(

証明

)

C

の符号長を

l

1

, l

2

, . . . , l

q とし,

K =

q

i=1

r

−li とする。

y

i

= r

−li

/K

とおけば,

q

y

i

= 1

であるから,

p.36

の定理を

(39)

一意復号可能であるから,

K

≤ 1

である

(log

r

K

≤ 0)

H

r

(

S) = −

q

i=1

p

i

log

r

p

i

≤ −

q

i=1

p

i

log

r

y

i

=

q

i=1

p

i

log

r

(r

−li

/K)

=

q

i=1

p

i

l

i

+

q

i=1

p

i

log

r

K = L(

C) + log

r

K

≤ L(C)

となる。

(40)

系  前ページの定理で,等号が成立する必要十分条件は,任意の

i

に対し て,

log

r

p

iが整数になっていることである。

(

証明の概要

)

等号が成立すれば,

p

i

= y

i かつ

log

r

K = 0

である

(K = 1)

。従って,

log

r

p

i

=

−l

iとなり整数になる。 逆に,

log

r

p

iが整数ならば,

l

i

=

− log

r

p

iとすれば, q

i=1

r

−li

=

q

i=1

p

i

= 1

となり,マクミランの不等式を満たすので,その符号長の一意復号可能 な符号が存在する。

(41)

例:

情報源

S

p

1

= 1/2

p

2

= 1/4

p

3

= 1/8

p

4

= 1/8

符号

C

w

1

= 0

w

2

= 10

w

3

= 110

w

4

= 111

H

2

(

S) = −

1

2

log

2

1

2

1

4

log

2

1

4

1

8

log

2

1

8

1

8

log

2

1

8

= 1.75

L(

C) =

1

2

× 1 +

1

4

× 2 +

1

8

× 3 +

1

8

× 3 = 1.75

η = 1.75/1.75 = 1.0

情報源

S

p

1

= 0.3

p

2

= 0.2

p

3

= 0.2

p

4

= 0.2

p

5

= 0.1

符号

C

w

1

= 00

w

2

= 10

w

3

= 11

w

4

= 010

w

4

= 011

H

2

(

S) = −0.3 log

2

0.3

− 0.2 log

2

0.2

− 0.2 log

2

0.2

− 0.2 log

2

0.2

−0.1 log

2

0.1

= 2.2464

L(

C) = 0.3 × 2 + 0.2 × 2 + 0.2 × 2 + 0.2 × 3 + 0.1 × 3 = 2.3

η = 2.2464/2.3 = 0.9767

(42)

3.4

シャノン・ファノ符号

• ⌜x⌝

:実数

x

に対して,

x

以上の最小の整数。  例:

⌜2.3⌝ = 3

⌜4.0⌝ = 4

出現確率が

0

のシンボルが存在しないとする。

• l

i

=

⌜− log

r

p

i

とすれば,

− log

r

p

i

≤ ⌜− log

r

p

i

⌝ < − log

r

p

i

+ 1

q

i=1

r

−li

q

i=1

p

i

= 1

となり,マクミランの不等式を満たす。

従って,この符号長の瞬時復号可能な符号が存在する。 シャノン・ファノ符号と呼ぶ。

また,上の不等号を平均して以下の式を得る。

(43)

(

出現確率

0

のシンボルにも符号語を割り当てる。  

p

0

= 1

p

1

= 0

w

0

= 0

w

1

= 1)

平均符号長は

H

r

(

S) + 1

以下になる。

シャノン・ファノ符号は一般には最適符号ではない。

ハフマン符号は最適符号であるから, ハフマン符号の平均符号長も

H

r

(

S) + 1

以下である。

例:情報源

S

p

1

= 0.3

p

2

= 0.2

p

3

= 0.2

p

4

= 0.2

p

5

= 0.1

log

2

0.3 =

−1.73

log

2

0.2 =

−2.321

log

2

0.1 =

−3.32

L(

C) = 0.3 × 2 + 0.2 × 3 + 0.2 × 3 + 0.2 × 3 + 0.1 × 4 = 2.8

となる。

η = 0.8214

である

(

ハフマン符号は

L(

C) = 2.2464

だった

)

次節で説明する拡大情報源を使えば,シャノン・ファノ符号は最適符

(44)

3.5

拡大情報源

• S

{s

1

, . . . , s

q

}

p

1

, . . . , p

q

• T

{t

1

, . . . , t

q

}

p

1

, . . . , p

q′

拡大情報源

S × T

:シンボルは

S

T

のシンボルの組

(s

i

, t

j

)

からなる。

情報源が独立:シンボル

(s

i

, t

j

)

の生起確率が

p

i

p

j となること。

• S

T

を独立な情報源とするとき,次式が成立する。

H

r

(

S × T ) = H

r

(

S) + H

r

(

T )

(

証明

)

H

r

(

S × T ) = −

q

i=1 q′

j=1

p

i

p

j

log

r

p

i

p

j

=

i

j

p

i

p

j

(log

r

p

i

+ log

r

p

j

)

(45)

帰納的に,情報源

n

個の情報源

S

1

,

S

2

, . . . ,

S

nの積に拡張する。

• S

nを,

S

1

× S

2

× · · · × S

n

= (

S

1

× S

2

× · · · × S

n−1

)

× S

n

• S

1

,

S

2

, . . . ,

S

nに対して,それぞれの

 シンボル:

s

1,i1

, s

2,i2

, . . . , s

n,in

 生起確率:

p

1,i1

, p

2,i2

, . . . , p

n,inで表す。

• S

1

,

S

2

, . . . ,

S

nが独立とする。

拡大情報源

S

1

× S

2

× · · · × S

nでは,

 シンボル:

(s

1,i1

, s

2,i2

,

· · · , s

n,in

)

  

(

それぞれのシンボルを組み合わせて

1

つのシンボルができる。

)

 生起確率:

p

1,i1

p

2,i2

· · · p

n,inで与えられる。

  

(

それぞれの生起確率の積で与えられる。

)

• S

1

,

S

2

, . . . ,

S

nが独立な情報源ならば,次式が成立する。

(46)

• S

1

,

S

2

, . . . ,

S

nを情報源

S

の独立した

n

個のコピーとする。

S

n

≡ S

1

× S

2

× · · · × S

n と定義すれば,次式が成立する。

(47)

3.6

シャノンの第1基本定理

• L

n

S

nに対する符号長。

シャノン・ファノの符号化より,次の関係を満たす符号が存在する。

H

r

(

S

n

)

≤ L

n

≤ H

r

(

S

n

) + 1

S

nの符号語は情報源

S

のシンボル

n

個を表している。

• S

のシンボル

1

つを表すために必要な平均符号長は

L

n

/n

である。

• H

r

(

S

n

) = nH

r

(

S)

であるので以下の式が成立する。

H

r

(

S) ≤

L

n

n

≤ H

r

(

S) +

1

n

• n → ∞

で,

1/n

→ 0

シャノンの第1基本定理:  十分大きな

n

に対して,

S

nを符号化すれば,情報源

S

の一意復元可 能な

r

元符号で,平均符号長がエントロピー

H

r

(

S)

に十分近いものが存 在する。

(48)

例:

p

1

= 3/4

p

2

= 1/4

のとき。

– H

2

(

S) = 0.81128

S

に対して,

w

1

= 0, w

2

= 1

となり

L

1

= 1

S

2に対して,ハフマン符号を構成する。  

w

11

= 0, w

12

= 10, w

21

= 110, w

22

= 111

となり,

L

2

/2 = 0.84375

S

3に対して,ハフマン符号を構成する。  

w

111

= 0, w

112

= 110, w

121

= 100, w

122

= 11100, w

211

= 101,

w

212

= 11101, w

221

= 11110, w

222

= 11111

となり,

L

3

/3 = 0.82292

(49)

3.7

マルコフ過程のエントロピー

情報源が出力するシンボルの確率が直前のシンボルに依存する。

• p

ij:直前にシンボル

j

を出力したという条件のもとで,   シンボル

i

を出力する確率

• p

i :定常状態において,シンボル

i

を出力する確率。   

(

エルゴード性

)

p

i

=

j

p

ij

p

j

シンボル

j

を受け取っていたとする。

このとき,シンボル

i

を受け取ったときの情報量:  

(

解消する不確定さの量

)

− log p

ij

そのときの平均情報量

i

p

ij

log

r

p

ij

(50)

これを直前に受け取ったシンボル

j

に関して平均したものがエントロ ピーになる。

H

r

(

S) = −

j

i

p

j

p

ij

log

r

p

ij

i

p

ij

= 1

であるから,

p.36

の定理より,任意の

j

に対して,

i

p

ij

log

r

p

ij

≤ −

i

p

ij

log

r

p

i が成立する。従って,

H

r

(

S) = −

j

i

p

j

p

ij

log

r

p

ij

≤ −

j

i

p

ij

p

j

 log

r

p

i

(51)

4

まとめ

エントロピーは情報量を考えるための非常に重要な概念。

(

エントロピー符号化:

ZIP, LHA, JPEG

など

)

エントロピーは抽象的な感じがするが,符号と結びついて具体的な感 じになる。

最近は,ハフマン符号より複雑であるが性能の高い「算術符号化」が 使われる。

参照

関連したドキュメント

joint work with Michele D’Adderio and Anna Vanden Wyngaerd 2 september, 2019.. Thank you for

TABLE OF ROTATION SEQUENCE OF $X_{n+1} = X^2_n - \lambda$.

Ngoc; Exponential decay and blow-up results for a nonlinear heat equation with a viscoelastic term and Robin conditions, Annales Polonici Mathematici 119 (2017), 121-145..

We establish a strong law of large numbers and a central limit theorem for the Parrondo player’s sequence of profits, both in a one-parameter family of capital-dependent games and in

If the interval [0, 1] can be mapped continuously onto the square [0, 1] 2 , then after partitioning [0, 1] into 2 n+m congruent subintervals and [0, 1] 2 into 2 n+m congruent

We prove a continuous embedding that allows us to obtain a boundary trace imbedding result for anisotropic Musielak-Orlicz spaces, which we then apply to obtain an existence result

Massoudi and Phuoc 44 proposed that for granular materials the slip velocity is proportional to the stress vector at the wall, that is, u s gT s n x , T s n y , where T s is the

In the second section, we study the continuity of the functions f p (for the definition of this function see the abstract) when (X, f ) is a dynamical system in which X is a