Upgrade to Pro — share decks privately, control downloads, hide ads and more …

エントロピーと情報量

 エントロピーと情報量

情報理論の基本的な概念について解説しました。

Shogo Osawa

May 06, 2022
Tweet

More Decks by Shogo Osawa

Other Decks in Science

Transcript

  1. 情報量と情報量は • 情報を目的とする領域伝える領域=ある領域事象が起きたことをが起きたことを知起きたことを知らきたこと情報量を目的とする領域知らせるらせる領域 • 「新しく入ったエンしく依存関係の定量入ったエンジニアったエンジニアは男らしいよ」は男らしいよ」らしい応用を持つよ」」 – ソフトウェアは男らしいよ」エンジニアは男らしいよ」に基づく依存関係は男らしいよ」性がとても多いのが起きたことを知と情報量て解説するも多いので、多いので、い応用を持つの定量化で、 何も言わなくてもも多いので、言わなくてもあまわな格納や伝達を目く依存関係の定量て解説するも多いので、あまり検出・訂正、暗変わらないわらな格納や伝達を目い応用を持つ • 「宝くじに当たってく依存関係の定量じに基づく依存関係当たって、来月末たって解説する、来月末で退職だって」で退職だって」だって解説する」

    – 宝くじに当たってく依存関係の定量じに基づく依存関係当たって、来月末たる領域確率はと情報量て解説するも多いので、低いので、い応用を持つの定量化で、 黙っているのと伝って解説するい応用を持つる領域の定量化と情報量伝える領域の定量化と情報量では大違いい応用を持つ • 伝わる領域情報の定量化量を目的とする領域事象が起きたことをの定量化生起きたことを知ら確率で定義しようしよ」う
  2. 情報量の定量化要請 • 生起きたことを知ら確率 p の定量化事象が起きたことをの定量化情報量 I(p) はどんな格納や伝達を目性がとても多いの質をを目的とする領域 持つって解説するい応用を持つる領域と情報量望ましいかましい応用を持つか 1. I(0)=∞,

    I (1)=0 2. p < q ⇒ I (p) > I (q) 3. I ( pq) = I ( p) + I (q) 加法性がとても多いの(独立な事象についてな格納や伝達を目事象が起きたことをに基づく依存関係つい応用を持つて解説する) I ( p)=−log( p) と情報量する領域と情報量、この定量化要請を目的とする領域全て満たせる。て解説する満たせる。たせる領域。 対数の底には依存しの定量化底には依存しないに基づく依存関係は依存しな格納や伝達を目い応用を持つが起きたことを知、2を目的とする領域使うことが多い。うこと情報量が起きたことを知多いので、い応用を持つ。 単調減少性がとても多いの
  3. 確率変わらない数の底には依存しの定量化エントロピーと情報量 • 確率変わらない数の底には依存しXは事象が起きたことをa 1 , a 2 , …, a

    k を目的とする領域確率p 1 , p 2 , …, p k でと情報量る領域と情報量する領域 • 確率変わらない数の底には依存しXの定量化値を観測したときを目的とする領域観測したとき、得らしたと情報量き、得られる情報量のられる領域情報量の定量化期待値を観測したときを目的とする領域 Xの定量化エントロピーと情報量 entropy と情報量い応用を持つい応用を持つ以下で定義する。で定義しようする領域。 ただし0log0 = 0 • 例:どの目も同じ確どの定量化目も多いので、同じ確率で出るサじ確率で出る領域サイコロの定量化エントロピーと情報量 H (X) = −∑ i=1 k p i log(p i ) [bit] −∑ i=1 6 1 6 log 1 6 = −log 1 6 = log6
  4. 同じ確率で出るサ時確率と情報量周辺確率 実な事象の予想の際の罹患の定量化罹患Y→ ↓検査は大変だけれど結果X YES NO 合計 YES 1 / 6

    2 / 9 7 / 18 NO 1 / 9 1 / 2 11 / 18 合計 5 / 18 13 / 18 1 変わらない数の底には依存しの定量化全て満たせる。組合せに基づく依存関係対して解説する生起きたことを知ら確率を目的とする領域定義しよう:どの目も同じ確同じ確率で出るサ時確率 joint probablity この定量化例では P(X ,Y ) P(X=YES ,Y =YES) = 1 6
  5. 同じ確率で出るサ時確率と情報量周辺確率 実な事象の予想の際の罹患の定量化罹患Y→ ↓検査は大変だけれど結果X YES NO 合計 YES 1 / 6

    2 / 9 7 / 18 NO 1 / 9 1 / 2 11 / 18 合計 5 / 18 13 / 18 1 P(X=YES) = P(X=YES ,Y =YES)+P( X=YES ,Y =NO) = 1 6 + 2 9 = 7 18 ある領域変わらない数の底には依存しに基づく依存関係つい応用を持つて解説する足し合わせて、同し合わせて解説する、同じ確率で出るサ時確率から変わらない数の底には依存しを目的とする領域抜くこと:周辺化く依存関係の定量こと情報量:どの目も同じ確周辺化 marginalization 周辺化された確率 = 周辺確率 marginal probability P(X), P(Y )
  6. 条件付きエントロピーき確率 実な事象の予想の際の罹患の定量化罹患Y→ ↓検査は大変だけれど結果X YES NO 合計 YES 1 / 6

    2 / 9 7 / 18 NO 1 / 9 1 / 2 11 / 18 合計 5 / 18 13 / 18 1 P(Y =YES∣X=NO) = P(Y =YES , X=NO)÷P( X=NO) = 1 9 ÷ 11 18 = 2 11 ある領域変わらない数の底には依存しが起きたことを知観測したとき、得らされたと情報量きの定量化他の変数の確率 の定量化変わらない数の底には依存しの定量化確率 conditional probability P(X∣Y ), P(Y∣X) P(X ,Y ) = P(X∣Y)P(Y ) = P(Y∣X)P( X)
  7. 相互情報量 mutual information • ある領域変わらない数の底には依存しを目的とする領域観測したとき、得らしたこと情報量に基づく依存関係よ」って解説する減少した 他の変数の確率 の定量化変わらない数の底には依存しの定量化エントロピーと情報量 I (X ;Y

    ) = H (X)−H (X∣Y ) = H (Y )−H (Y∣X) = −∑ x ∑ y P(x , y)log P(x , y) P(x)P( y) 周辺確率の定量化積と同時確率間のと情報量同じ確率で出るサ時確率間の定量化 カルバック・ライブラ情報量 Kullback–Leibler divergence と情報量一致するする領域