Upgrade to Pro — share decks privately, control downloads, hide ads and more …

PRML Sec1.6-2.2 (Japanese)

Avatar for ymnk ymnk
May 19, 2020

PRML Sec1.6-2.2 (Japanese)

Japanese presentation material of PRML(Pattern Recognition and Machine Learning).
This contains Sec1.6 to Sec 2.2.
- Information Theory(情報理論)
- Binary Variables
- Multinominal Variables

Avatar for ymnk

ymnk

May 19, 2020
Tweet

More Decks by ymnk

Other Decks in Science

Transcript

  1. 多重度 Multiplicity • N個の物体(原子)がI個の箱に分けられている状態を考える • 各箱にはn_i個の物体があるとする • N個の物体の選び方N!通り • i番目の箱には(n_i)!通り

    • N個の物体の箱への入れ方の総数は これを多重度という 注意:箱に物体を振り分けていく場合の数(箱数の N乗)ではなく、ある状態になっているとき に、原子1つ1つを区別して考えた場合にとりうる可能性の数
  2. コイン投げの独立試行 • ベルヌーイ分布に従うコインを複数投げたとき、 μの値を推定する • 観測値のデータ集合D={x_1, x_2, …, x_N}があるとするとき、 尤度関数

    対数尤度関数 この対数尤度関数は、 μと観測値の総和    のみで記述できる つまり、観測値の総和は十分統計量となっている 十分統計量:データ集合を持たなくても、その量を持っているだけで確率分布が記述で きる量
  3. 1.6 情報理論 • 情報量は確率の-log • エントロピーは情報量の平均(確率の平均なので期待値でもある) • 離散確率の場合、一様分布がエントロピー最大 • 連続確率の場合、ガウス分布が微分エントロピー最大

    • ある確率分布が、どれくらい真の分布を近似できているかを示す量を KLダイバージェンスという • KLダイバージェンスの最小化が尤度の最大化と等価になる • 二変数x,yの間の独立性を示す量である相互情報量は KLダイバージェンスから計算できる