Slide 11
Slide 11 text
訓練データにおける分布 ,
間の Bregman Divergence
の期待値は
B
(f, g) =
Ψ(z)
d
(f, g) ⋅
x,y
∑ Ψ(z)
p
(x, y)
d
であり、さらに を固定した場合、 を最小化することは、
を最小化することになる。実はこの
(3)
に
実はこの
(3)
に
,
, ,
,
をそれぞれうまく当て
をそれぞれうまく当て
はめると、
SCE
と
NS
それぞれの損失関数と一致する!
はめると、
SCE
と
NS
それぞれの損失関数と一致する!
Bregman Divergence
による
SCE
と
NS
の統一解釈
f g
f B
(f, g)
Ψ(z)
f
f g
g Ψ
Ψ
11