augmentationを検討し、データの増強を増やすことでMIが減少し、下流の分類精度が向上することを示す。 また、副産物として、ImageNet分類のための教師なし事前学習において、最新の精度を達成しました (ResNet-50を⽤いた場合、トップ1リニアリードオフが73%となりました)。さらに、我々のモデルをPASCAL のVOCオブジェクト検出やCOCOインスタンスのセグメンテーションに適⽤することで、⼀貫して教師付きプレト レーニングを上回る精度を達成した。コード:http://github.com/HobbitLong/PyContrast 1 Contrastive learningのより良い⼿法の提案 Mutual informationを減らそうよ よりよいContrastive learningのためのViewの検討 (原⽂: What makes for good views for contrastive learning)
images as a set of possibilities rather than a single choice. This in effect models the manifold of (low-resolution) input images. →「あらたなConditional GANの形です」とのこと。 潜在空間使うことでばらつきすくないよと。