Slide 56
Slide 56 text
0.情報量の導入 – エントロピーの例
• 8個の取り得る変数{a, b, c, d, e, f, g, h}
それぞれの確率{1/8, 1/8 , 1/8 , 1/8 , 1/8 , 1/8 , 1/8 , 1/8 }
エントロピーは
3
8
1
log
8
1
8
]
[
2
x
H ビット
それぞれの確率{1/2, 1/4 , 1/8 , 1/16 , 1/64 , 1/64 , 1/64 , 1/64}
エントロピーは
2
64
1
log
64
1
16
1
log
16
1
8
1
log
8
1
4
1
log
4
1
2
1
log
2
1
]
[
2
2
2
2
2
x
H ビット
エントロピーの概念
確率変数の状態を規定するのに必要な平均ビット数
2014/3/4
PRML勉強会@長岡