Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ICML2021 論文読み会

Seiichi Kuroki
August 20, 2021
980

ICML2021 論文読み会

敵対的学習の研究である、Towards Better Robust Generalization with Shift Consistency Regularizationの紹介

Seiichi Kuroki

August 20, 2021
Tweet

Transcript

  1. Towards Better Robust Generalization with Shift Consistency Regularization 2021-08-18 ICML論文読み会

    株式会社リクルート プロダクト統括本部 データ推進室 SaaS領域データソリューション2G 黒木 誠一
  2. Label Leaking of Conventional Adversarial Training 7 従来のAdversarial Trainingではlabel leakingを起こしてしまう

    Adversarial data作成時にlabel情報を 利用。(PGD, FGSM両方) →adversarial trainingしたモデルが、 クリーンなサンプルよりも敵対的サンプル に対しての精度が高い。 (label leaking) Adversarial data を見つけるための更新式
  3. Feature Scattering based Adversarial Training (Zhang et al, 2019) 8

    敵対的サンプル作成をラベル情報を用いず、Wasserstein distance(WD)最大化 に基づいて行う。 入力空間におけるCleanなサンプルとその 近傍のサンプルのWD →Cleanなサンプルの近傍において、入力空間 で定義されるWDの意味で最も遠いサンプル を生成。
  4. Robust Generalization の理論解析 12 feature shift inconsistency (SiC) RGEとGEの差の主要項はfeature shift

    inconsistency(SiC) → 同一クラス内でのfeature shiftがばらつくほどRGEが大きくなりうる。 feature shift 敵対的サンプル化による モデル出力の変化 同一クラス内でのfeature shiftのばらつき
  5. 所感 18 • 汎化誤差上界からのアルゴリズム提案は素敵 • 本論文での理論保証自体は未知の敵対的サンプルへの性能評価の観点で重要 ◦ 敵対的サンプルの経験誤差と汎化誤差の差の上界を求めたが、一般的な汎化誤 差上界との関係も知りたい ◦

    Cleanなデータでの性能は最善ではなくトレードオフあり、ダイレクトに解析 できたらいいのにな! • DNNなどの分類境界が柔軟すぎることが敵対的サンプルが悪さする主要因であると 考えられる一方で、モデルの複雑さなどを特化した汎化誤差にはなっていない。 ◦ 現状汎化誤差そのものに対するバウンドは緩そう