CollaGAN: Collaborative GAN for Missing Image Data Imputation • 従来のGANはドメイン変換の入力と出力が1対1だった • 『Why Don’t you use all domain-data you have?』ということで、提案手法の CollaGANでは複数のドメイン画像を同時入力して1つの特定ドメイン画像への変換を実行 • ある人物ではドメインAの画像が、別の人物ではドメインBの画像が無いとき、不足パター ンの画像を生成することが可能 • ネットワーク構造はStarGANとほとんど同じ、Generatorへの入力が複数画像+ドメイン 指定になっている点だけ新しい • ドメインがN個あるとき、inputはHeigh*Width*Nのサイズとなる。 • N個のドメインのうち、いくつかを真っ黒な画像に置き換えるDomain-Drop-outをする。 • 同時に入力するドメインの数が多いほど生成画像のクオリティが向上することを確認した。 参考: http://openaccess.thecvf.com/content_CVPR_2019/papers/Lee_CollaGAN_Collaborative_GAN_for_Missing _Image_Data_Imputation_CVPR_2019_paper.pdf
CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency • 1対1のドメイン変換するネットワーク • F S (X T )で敵対学習してDomain-Confusionさせる点は従来通り • X S とF T (X S )の識別結果の一貫性、X T とF S (X T )の識別結果の一貫性につい てのLOSSをくっつた点が新しい(…実は、そんなに新しくもないけど) • この類の研究はLOSS-Weightが黒魔術なことが多い。もうお腹いっぱ いというのが正直なところ 参照: https://www.citi.sinica.edu.tw/papers/yylin/6688-F.pdf
A General and Adaptive Robust Loss Function • Googleのポスターは大人気でいつも混雑していて見られなかった • どうやら、Vision系タスクでロバスト性を向上させるLOSS関数を考案 したらしい。しかも人手で細かいloss-paramのチューニングは不要。 • 帰国後にチェックします 参照: https://arxiv.org/abs/1701.03077
Parallel Optimal Transport GAN • GANとはつまり、Real画像の分布に、GANで生成したFake画像の分布 が似通うように学習すること • 分布の重なり具合を、低次元空間に射影してからWasserstein- Distanceで(より正確に)算出できるようなアルゴリズムを提案 • These problems essentially arise from poor estimation of the distance metric responsible for training these networks. • we introduce an additional regularisation term which performs optimal transport in parallel within a low dimensional representation space. 参照: http://openaccess.thecvf.com/content_CVPR_2019/papers/Avraham_Parallel_Optimal_Transport_GAN _CVPR_2019_paper.pdf
Destruction and Construction Learning for Fine-gained Image Recognition • Novel Methodを謳っているが、これってself-supervisedを取り入れた だけなのでは… 参照: http://openaccess.thecvf.com/content_CVPR_2019/papers/Chen_Destruction_and_Construction_Lear ning_for_Fine-Grained_Image_Recognition_CVPR_2019_paper.pdf
Unsupervised Domain Adaptation using Feature- Whitening and Consensus Loss • TargetデータとSourceデータを別々にNormalizeして超球上にプロット できるよう制約をかける(これによりTとSで分布が重なる) • TargetデータでAugmentationしたX T とX’ T で予測結果が一致するよう 制約をかける • こういう一貫性(Consensus)のLOSSを用いた研究が今年はいくつも 見られた。敵対学習が無いので見た目はスッキリしているが Consensus-LOSSでは情報保存される保証がないので疑問が残る。 参照: https://research.mapillary.com/img/publications/CVPR19c.pdf
Learning Not to Learn: Training Deep Neural Networks with Biased Data • 例えばcolor-MNISTにて、学習データでは『1』という数字が『緑』し かなかった場合、『赤色=1』という望ましくない学習をする可能性が ある • それを防ぐためにDisentangleするという研究 • Label-infoとBias-infoそれぞれの正解データとClassifierを準備して、 互いの用いる特徴量の相互情報量が小さくなるようLOSSをかける • 昨年くらいから使い古された手法に思えるが、それ以上の工夫も特に見当たらない、 その実験なら昨年に僕もやってたよ、チクショウ・・・・ 参照: https://arxiv.org/pdf/1812.10352.pdf
Class-Balanced Loss Based on Effective Number of Samples • 我々が扱う手元のデータは『ユニークか否か?』という判断基準が曖昧で、本質的なデータ 数とGAPがある • 例えば、同一物体を複数角度から撮影した画像は同じデータか異なるデータか?という問い • 従来のClassBalancedLossはクラスのデータ数 n y の逆数を学習の重みとしたが、提案では本 質的なクラスのデータ数 E ny を学習の重みとする • ハイパーパラメータβ[0..1]は大きいほど本質的なデータ数が多いと仮定することになる 参照: https://arxiv.org/abs/1901.05555
Max-Sliced Wasserstein Distance and its Use for GAN • GANの学習において分布間距離指標にWasserstein-Distanceを用いる ことがポピュラーになってきている(WGAN) • それをさらに改善して、Max-Sliced-Wasserstein-Distanceを定義した ぜという研究 • もし本当に(概ねの条件下で)有効ならば、早くPytorchなどのフレー ムワークに搭載してほしいものだ 参照: http://openaccess.thecvf.com/content_CVPR_2019/papers/Deshpande_Max- Sliced_Wasserstein_Distance_and_Its_Use_for_GANs_CVPR_2019_paper.pdf
Variational Autoencoder Pursue PCA Directions(by Accident) • VAEは強力な手法だが実際どうしてうまくいっているのか?? • 再構築性を確保しながら直行基底を探索する点はPCAと似ている (Autoencoderは非線形のPCAだ!という説もあるくらいだし) • Variational-Autoencoderがやってることの方向性はPCAと同じだぜ! と証明した(つまり理にかなっているということを論旨保証した) • Tradeoff: local orthogonality reconstruction • Well known: liner autoencoder span the same latent space as PCA • New insight: VAEs additionally pursue the same principal direction 参照: http://openaccess.thecvf.com/content_CVPR_2019/papers/Rolinek_Variational_Autoencoders_Pursue _PCA_Directions_by_Accident_CVPR_2019_paper.pdf