Slide 3
Slide 3 text
n 相互情報量 平均情報量(エントロピー)とは
• 平均情報量は、
- 情報量を確率変数(ノード)の取りうる値ごとに計算し平均したもの
- 確率変数に対して(が各値%
, &
, ..., )
を取る確率が%
, &
, ..., )
であるとき)、平均情報量は以下の
式で定義される
3
• 例1 : 「喫煙している」の分布が表のとき
- 「喫煙している」の平均情報量は
• 例1 : 「糖尿病である」の分布が表のとき
- 「糖尿病である」の平均情報量は
0.6
0.4
0.1
0.9
↖ どっちになるか半々くらいのノードの情報量(あいまいさ)のほうが、
極端に偏った分布のノードの情報量(曖昧さ)よりも⼤きい ↗