C., Hauptmann, A., & Fei-Fei, L. (2019). Peeking into the Future: Predicting Future Person Activities and Locations in Videos. arXiv preprint arXiv:1902.03748. [1] 入力 出力
Richardt, C., & Yang, Y. L. (2019). HoloGAN: Unsupervised learning of 3D representations from natural images. arXiv preprint arXiv:1904.01326. [1] 入力 出力
) 0 1 p x p x dx = ( ) ( ) 0 1 x X p x p x = 例:ガウス分布 例:ベルヌーイ分布 ※確率密度関数の場合は任意の範囲で 積分して確率を求めます ( ) ( )2 2 1 exp 2 2 x f x − = − ( ) ( )1 Bern | 1 x x x − = −
) x p x E f x f x p x dx = 確率分布 に対してある関数 の期待値(連続) 省略されるケースもあります ( ) ( ) ( ) ( ) x p x x X E f x f x p x = ( ) p x ( ) f x ( ) f x x = ( ) ( )2 f x x E x = − ( ) E x xp x dx = の場合 平均 分散 ( ) ( ) ( ) 2 2 E x E x x E x p x dx − = − の場合
) log log H p x p x p x dx E p x = − = − ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) || log log log log KL q x q x q x p x D q x p x q x dx q x E q x E p x H q x E p x = − = − = − − 確率分布 のエントロピー(確率分布の乱雑さ) 確率分布 と のKLダイバージェンス(確率分布の距離) ( ) q x ( ) p x ( ) p x
期待値 分散 ( ) p x ( ) 1 6 p x = ( ) ( ) 1 1 1 2 ... 6 6 3.5 x p x x X E x xp x = = + + = ( ) ( ) ( ) ( ) ( ) ( ) 2 2 2 2 1 1 1 3.5 2 3.5 ... 6 6 35 12 x p x x X E x E x x E x p x − = − = − + − + = エントロピー ( ) 1 1 1 1 log log ... 6 6 6 6 1 log log6 6 H p x = − − − = − =
( ) , p x y ベイズの定理 ( ) ( ) ( ) , | p x y p x y p y = 周辺化 (確率変数の消去) ( ) ( ) , p y p x y dx = ( ) ( ) ( ) ( ) | | p y x p x p x y p y = ( ) ( ) ( ) | , p y p x y p x y = “原因xのもとでの結果yの得られやすさ から,結果yが得られたときの原因xの確率 を逆算するような手続き” ( ) | p y x ( ) | p x y 事前分布 尤度 事後分布
Bern | 1 x x x − = − ( ) ( ) 1 log , log | N i i L D p x = = ( ) ( ) ( ) ( ) ( ) 1 1 1 log , log 1 log 1 log 1 i i N x x i N i i i L D x x − = = = − = + − − 対数尤度
( ) ( ) 1 log , log 1 log 1 N i i i L D x x = = + − − ( ) ( ) ( ) ( ) ( ) 1 1 1 log , 1 1 1 1 1 1 1 1 0 1 1 N i i i N i i i N i i d L D x x d x x x = = = − = − − − = − + − − − = − = − −
N i i x = − = − − 今回のデータDは 12回のうち12回表が出た 0(=裏) 1(=表) ( ) 1 1 1 1 0 N i i N N i i i N i i x x x N = = = = − = = = * 1 1 N i i x N = = 対数尤度を最大化するパラメータμは * 1 1 12 1 N i i x = = = 尤もらしいパラメータは1だ! (必ず表が出る) μ
) ( ) ( ) ( ) ( ) | | | p D p p D p D p D p = 事前分布(確率) 尤度関数 事後分布(確率) ベイズの定理 ( ) p あるデータD(原因)が得られたもとでのパラメータμ(結果)の確率分布 μに依存しない 事前分布 事後分布 尤度 μ
(表の出る確率)は0から1の値を取る連続の値 • (表の出る確率)は大体0.5ぐらいを取るのが普通では...? の事前分布 にベータ分布を仮定 ( ) ( ) 1 1 Beta | , 1 b a B a b C − − = − 2, 2 a b = = B C は正規化項 これが良さそう
( ) ( ) ( ) ( ) ( ) ( ) ( ) 1 1 | | | Beta | | | Beta | N i i N i i p D p p D p D p x a,b p D p D p x a,b = = = = 事前分布 (1p前で算出) 尤度(さきほど算出) あるデータDが得られたもとでのパラメータμの確率分布 パラメータμ には依存しない
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 1 1 1 1 log | log | log log 1 log 1 1 log 1 log 1 1 log 1 log 1 N i i N i i i N N i i i i p D p x p const x x a b const x a N x b const = = = = = + + = + − − + − + − − + = + + + − + − − + ( ) ( ) 1 1 Beta | , 1 b a B a b C − − = − ベータ分布だ!!!
) ( ) ( ) 1 1 log | 1 log 1 log 1 N N i i i i p D x a N x b const = = = + + + − + − − + ( ) ( ) ˆ ˆ | Beta | , p D a b = 1 1 ˆ ˆ N i i N i i a x a b N x b = = = + = − + 事前分布のパラメータ 観測によって変化する量
| Beta | , p D a b = 1 1 ˆ ˆ N i i N i i a x a b N x b = = = + = − + 今回のデータDは 12回のうち12回表が出た 0(=裏) 1(=表) ˆ 12 ˆ 12 a a b N b = + = − + ( ) ( ) ˆ ˆ | Beta | , p D a b = この事後分布がパラメータの分布として適している! 事前分布 事後分布 尤度 μ
Paraschos, A., Daniel, C., Peters, J. R., & Neumann, G. (2013). Probabilistic movement primitives. In Advances in neural information processing systems (pp. 2616-2624). [2] Deisenroth, M., & Rasmussen, C. E. (2011). PILCO: A model-based and data- efficient approach to policy search. In Proceedings of the 28th International Conference on machine learning (ICML-11) (pp. 465-472).
J. Pouget-abadie, M. Mirza, B. Xu, and D. Warde-farley, “Generative Adversarial Nets,” pp. 1–9. GAN = Generative Adversarial Nets 敵対的生成ネットワーク 敵対的とは...?
( ) ( ) min max , log log 1 data z p p G D V D G E D E D G = + − x x z z x z 参考:GAN[1]とは? • 評価関数 2019/6/19 -44- ( ) ~ z p z 識別器Dが 「本物データ」を「本物」と判別 識別器Dが 「生成データ」を「偽物」と判別 生成器は誤識別させたい 識別器は正しく判別 [1] I. J. Goodfellow, J. Pouget-abadie, M. Mirza, B. Xu, and D. Warde-farley, “Generative Adversarial Nets,” pp. 1–9.
) ( ) ( ) ( ) ( ) ( ) 1 1 1 1 1 1 2 2 , | | | | p B A p B A p A p A B p B p A B p B p A B p B = = + A 1 B :検査で陽性になる事象 :病気である事象 2 B :病気でない事象 ( ) p A =検査で陽性と判定される確率 =病気の人が陽性と判定される確率+病気でない人が陽性と判定される確率 ( ) ( ) 1 1 | p A B p B ( ) ( ) 2 2 | p A B p B ベイズの定理
= ( ) 1 | 0.95 p A B = = ( ) 2 | 0.80 C p A B = = 病気である確率 ( ) 2 1 0.0001 0.9999 p B = = − = 病気でない確率 病気である人が 陽性となる確率 病気でない人が 陰性となる確率 ( ) 2 | 1 0.80 0.20 p A B = = − = 病気でない人が 陽性となる確率 これらを用いて計算!!
) ( ) ( ) ( ) 1 1 1 1 1 2 2 | | | | 0.0001 0.95 0.0001 0.95 0.9999 0.20 0.000475 p A B p B p B A p A B p B p A B p B = + = + = 検査で陽性とされても病気である確率はわずか0.0475%