Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[Journal club] MetaFormer is Actually What You Need for Vision

[Journal club] MetaFormer is Actually What You Need for Vision

More Decks by Semantic Machine Intelligence Lab., Keio Univ.

Other Decks in Technology

Transcript

  1. 慶應義塾大学 杉浦孔明研究室 松尾榛夏 Yu, Weihao, et al. "Metaformer is actually

    what you need for vision." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022.
  2. • Transformer[Vaswani+, 17]は翻訳タスクで提案 • 自然言語処理タスクで人気に • Computer Visionタスクに適用 • Transformerのtoken

    mixerはAttention機構 • token mixer : 画像パッチ(token)の特徴量をmixする • Transformerの成功はAttention機構が原因であると考察 • Transformerのtoken mixingの改良に焦点 背景: TransformerのComputer Visionタスクへの適用 3
  3. 関連研究: token mixerを改良したモデルが存在 4 モデル 特徴 ViT [Dosovitskiy+, ICPL21] •

    コンピュータビジョンタスクにTransformerを適用 • 画像パッチを単語のように扱う DeiT [Touvron+, ICML21] • 知識蒸留の利用 • ViTの学習データやパラメータを削減 ResMLP [Touvron+, 21] • Transformerのtoken mixerとしてMLPを採用した モデル
  4. 課題: Attention機構の優位性について疑問が生まれる • ResMLPのようにtoken mixerへのMLPの使用によりTransformerに匹敵する性能を達成 • MLP(多層パーセプトロン) : パーセプトロンの入力層と出力層の間に中間層を足したもの •

    Attention機構の優位性や、最適なtoken mixerについての議論が発生 仮説 「特定のtoken mixer moduleではなく、 Transformerの一般的な構造が優れた性能を出すために重要」 5
  5. 提案手法: MetaFormer(1/3) 一般的な構造を定義 • Token mixerを特定しないTransformerの一般的な構造 • それ以外はTransformerと同じ • 入力画像をViTのPatch

    Embeddingによって処理 • 画像パッチを単語のように扱う 𝑋 = InputEmb 𝐼 𝑋 ∈ ℝ𝑁×𝐶 𝑁: 画像の分割数 𝐶: 画像のchannel数 6
  6. 提案手法: MetaFormer(2/3) 画像をパッチに分割 • Token mixerを特定しないTransformerの一般的な構造 • それ以外はTransformerと同じ • 入力画像をViTのPatch

    Embeddingによって処理 • 画像パッチを単語のように扱う 𝑋 = InputEmb 𝐼 𝑋 ∈ ℝ𝑁×𝐶 𝑁: 画像の分割数 𝐶: 画像のchannel数 7
  7. 提案手法: MetaFormer(3/3) 2つの残差結合ブロックで構成 • 特定のToken Mixerを使用 ViT … attention mechanism

    ResMLP … spatial MLP ⇒ 異なるモデルが得られる • Channel MLPは非線形活性化を持つ2層のMLPで構成 8
  8. 提案手法: PoolFormer(2/3) 平均プーリングと減算 • Poolingはそれぞれのtokenとその近くのtokenの特徴を平均的にまとめる 𝑇:,𝑖,𝑗 ′ = 1 𝐾

    × 𝐾 ෍ 𝑝,𝑞=1 𝐾 𝑇 :,𝑖+𝑝− 𝐾+1 2 ,𝑗+𝑞− 𝐾+1 2 − 𝑇:,𝑖,𝑗 入力 𝑇 ∈ ℝ𝐶×H×W (𝐶: channel数 𝐻: 画像の高さ 𝑊: 画像の幅) ☆入力自体の減算 MetaFormer構造内に既にある残差を打ち消すため 10 位置(𝑖, 𝑗)での平均プーリング (𝐾: プーリング層のカーネルサイズ) ☆
  9. 提案手法: PoolFormer(3/3) Poolingの利点を生かした構造 • 階層的な構造(4ステージ) • Poolingは計算量が少ないため可能に • patch embeddingにより、次元を大きくしていく

    • 全部で𝑳個のPoolFormerブロックがあったら、 Stage1: 𝑳/𝟔個 Stage2: 𝑳/𝟔個 Stage3: 𝑳/𝟐個 Stage4: 𝑳/𝟔個 11
  10. 評価: 画像分類(1/2) 他のtoken mixerに匹敵する精度 • PoolFormer-S24 vs DeiT-S • 28%少ない計算量

    • 0.5%上回る精度 • PoolFormer-S24 vs ResMLP-S24 • 43%少ないパラメータ • 67%少ない計算量 • 0.9%上回る精度 12 ※ ImageNet-1K[ILSVRC2012]を使用 (ImageNet:1400万枚以上の教師ラベル付き画像データベース) Token Mixer Outcome Model Image Size Params(M) MACs(G) Top-1(%) Attention DeiT-S [Touvron+, ICML21] 224 22 4.6 79.8 Spatial MLP ResMLP-S24 [Touvron+, 21] 224 30 6.0 79.4 Pooling PoolFormer-S24 224 21 3.6 80.3
  11. Ablation study: 他のtoken mixerとの組み合わせで性能向上 • Pooling … 恒等写像でも74.3%(=構造が大事)、Pooling sizeは大きすぎ× •

    Normalization … Group Normalizationが一番良い • Activation … GELUがReLUを上回り、SiLUと同程度 • Hybrid Stages … Poolingと他のtoken mixerの組み合わせにより性能向上 14
  12. 追試およびエラー分析 : 似た形の物体の認識が課題 • 周りの環境情報が多くても正しく分類できている • 形が似ている為、誤分類 • サイズを誤って認識している可能性あり •

    改善案:周りの情報からサイズを認識できるようにする 15 予測:traffic light, traffic signal, stoplight 予測:chihuahua 正:water bottle 予測:lipstick, lip rouge