Slide 13
Slide 13 text
13
ノイズ推定二乗誤差の最小化による拡散モデルの学習
ポイント
①
拡散モデルにおける
負の対数尤度の上界最小化 = 「真のデノイズ結果の平均」の回帰問題
ポイント
②
「真のデノイズ結果の平均」はデータ𝑥"
とノイズ𝜖 ~ 𝑁(0, I)の線形和で表せる
≤ 9
"&'
(
𝔼) 𝑥" 𝑥%
𝐷*+ 𝑞 𝑥"#$ 𝑥", 𝑥%
‖ 𝑝! 𝑥"#$ 𝑥"
− log 𝑝! 𝑥% + {𝑝! 𝑥(
と𝑝!(𝑥")に関する項}
C
𝜇" 𝑥", 𝑥% = 𝑐%𝑥% + 𝑐$𝑥" =
𝑐%
1
𝛼"
+ 𝑐$ 𝑥" −
𝑐% 1 − 1
𝛼"
1
𝛼"
𝜖 𝑐! =
𝛽"
1 − 𝛽"#$
1 − -
𝛼"
, 𝑐$ =
1 − 𝛽"
(1 − -
𝛼"#$
)
1 − -
𝛼"
𝑥"
= -
𝛼"
𝑥!
+ 1 − -
𝛼"
𝜖
実はどちらもガウス分布なので平均パラメタの二乗誤差となる
※𝑁(𝑥"#$; 7
𝜇"(𝑥", 𝑥!), 9
𝛽"𝑰)と𝑁(𝑥"#$; 𝜇%(𝑥", 𝑡), 𝜎"
&𝑰)
1
2𝜎!
=
0
𝜇! 𝑥!, 𝑥" − 𝜇>(𝑥!, 𝑡) = + const.
𝒙𝒕
から𝝐を推定して0
𝜇!
に変換することも可能
※時刻に応じた係数も無視
= 𝔼",$ 𝜖 − 𝜖!( *
𝛼"𝑥% + 1 − *
𝛼"𝜖, 𝑡)
&
最終的に学習に
利用する損失