k を目的とする領域確率p 1 , p 2 , …, p k でと情報量る領域と情報量する領域 • 確率変わらない数の底には依存しXの定量化値を観測したときを目的とする領域観測したとき、得らしたと情報量き、得られる情報量のられる領域情報量の定量化期待値を観測したときを目的とする領域 Xの定量化エントロピーと情報量 entropy と情報量い応用を持つい応用を持つ以下で定義する。で定義しようする領域。 ただし0log0 = 0 • 例:どの目も同じ確どの定量化目も多いので、同じ確率で出るサじ確率で出る領域サイコロの定量化エントロピーと情報量 H (X) = −∑ i=1 k p i log(p i ) [bit] −∑ i=1 6 1 6 log 1 6 = −log 1 6 = log6