Slide 57
Slide 57 text
Copyright 2021 FUJITSU LIMITED
等長性を高める方法
◼ 再構成誤差の分析
◼ ො
𝑥 = 𝑔𝜃
𝑓𝜙
𝑥 + 𝜖 , ෬
𝑥 = 𝑔𝜃
𝑓𝜙
𝑥 として次式成立。
𝐷 𝑥, ෬
𝑥 ≃ 𝐷 ො
𝑥, ෬
𝑥 + 𝐷 𝑥, ෬
𝑥
◼ よって 𝐷 𝑥, ෬
𝑥 と𝐷 ො
𝑥, ෬
𝑥 のトレードオフの結果、
ウィーナフィルタ的な挙動をしめす。
◼ 等長性を高める方法: ෬
𝑥 ≃ 𝑥 の促進
◼ 𝐷 𝑥, 𝑥 + 𝛿𝑥 = 𝛿𝑥𝑇𝐺𝑥
𝛿𝑥 は𝛿𝑥=0で微分値が0。
◼ 𝐷(⋅,⋅)より0付近で急峻なロス𝐷2(⋅,⋅)を準備
(MSEの対数やL1/L2 ロスなど)
◼ 𝐷 𝑥, ෬
𝑥 を𝐷2 𝑥, ෬
𝑥 に置き換えて学習
𝐿 = 𝐷 + 𝛽𝐷 ො
𝑥, ෬
𝑥 + 𝛾𝐷2 𝑥, ෬
𝑥
⇒ 𝒙 ≃ ෭
𝒙 が促進され等長性が高まる
𝒙
𝒛
෭
𝒙
𝐷2(𝒙, ෭
𝒙)
ෝ
𝒙
D(
𝒙, ෭
𝒙)
𝝐~𝑁(0, 𝜎) + 𝑔𝜃
(𝒛 + 𝝐)
この等長性を高めたモデルをRaDOGAGAと命名
(Rate-Distortion Optimization Guided Autoencoder for Generative Analysis)
𝐷 𝑥, ෬
𝑥 𝐷2 𝑥, ෬
𝑥
𝐿 = 𝐷 + 𝛽𝐷 ො
𝑥, ෬
𝑥 + 𝛾𝐷2 𝑥, ෬
𝑥
𝐷 𝑥, ෬
𝑥 ≃ 𝐷 ො
𝑥, ෬
𝑥 + 𝐷 𝑥, ෬
𝑥
D2(・) はD(・)よりも ෬
𝑥 ≃ 𝑥 付近で微分が
急峻な『MSEの対数』や L1などを使う
置き換え
新しい再構成誤差で学習
෬
𝑥 = 𝑥 ෬
𝑥 = 𝑥
56