Slide 7
Slide 7 text
Label Leaking of Conventional Adversarial Training
7
従来のAdversarial Trainingではlabel leakingを起こしてしまう
Adversarial data作成時にlabel情報を
利用。(PGD, FGSM両方)
→adversarial trainingしたモデルが、
クリーンなサンプルよりも敵対的サンプル
に対しての精度が高い。
(label leaking)
Adversarial data を見つけるための更新式