Slide 3
Slide 3 text
論文の概要
TransGAN: Two Transformers Can Make One Strong GAN
(https://arxiv.org/abs/2102.07074)
1. Transformer のみで GAN を構成した (CNN が非必須であることを示した)
2. アーキテクチャと学習方法を工夫することで CIFAR-10 や STL-10 で CNN
ベースの GAN に匹敵する性能が出せた。
モデルは https://github.com/VITA-Group/TransGAN に公開されている
ただし推論のみ