Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文解説 Mask2Former
Search
koharite
June 15, 2022
Research
11
4.3k
論文解説 Mask2Former
Presentation for explaining the paper Mask2Former presented at CVPR2022.
koharite
June 15, 2022
Tweet
Share
More Decks by koharite
See All by koharite
論文解説 DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
koharite
0
190
論文解説 DTPP: Differentiable Joint Conditional Prediction and Cost Evaluationfor Tree Policy Planning in Autonomous Driving
koharite
0
160
論文解説 Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving?
koharite
0
230
論文解説 DiLu: A Knowledge-Driven Approach to Autonomous Driving with Large Language Models
koharite
0
310
論文解説 EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention
koharite
0
650
論文解説 CoCa: Contrastive Captioners are Image-Text Foundation Models
koharite
0
1.2k
論文解説 LoRA : Low Rank Adaptation of Large Language Models
koharite
3
2.4k
論文解説 ControlNet
koharite
1
6.4k
論文解説 InstructGPT : Training language models to follow instructions with human feedback
koharite
4
3.7k
Other Decks in Research
See All in Research
AI Agentの精度改善に見るML開発との共通点 / commonalities in accuracy improvements in agentic era
shimacos
5
1.3k
社内データ分析AIエージェントを できるだけ使いやすくする工夫
fufufukakaka
1
940
その推薦システムの評価指標、ユーザーの感覚とズレてるかも
kuri8ive
1
330
世界モデルにおける分布外データ対応の方法論
koukyo1994
7
1.8k
湯村研究室の紹介2025 / yumulab2025
yumulab
0
310
Collective Predictive Coding and World Models in LLMs: A System 0/1/2/3 Perspective on Hierarchical Physical AI (IEEE SII 2026 Plenary Talk)
tanichu
1
270
「車1割削減、渋滞半減、公共交通2倍」を 熊本から岡山へ@RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
1
640
空間音響処理における物理法則に基づく機械学習
skoyamalab
0
220
一般道の交通量減少と速度低下についての全国分析と熊本市におけるケーススタディ(20251122 土木計画学研究発表会)
trafficbrain
0
170
【NICOGRAPH2025】Photographic Conviviality: ボディペイント・ワークショップによる 同時的かつ共生的な写真体験
toremolo72
0
180
存立危機事態の再検討
jimboken
0
250
離散凸解析に基づく予測付き離散最適化手法 (IBIS '25)
taihei_oki
PRO
1
710
Featured
See All Featured
Building Applications with DynamoDB
mza
96
6.9k
AI: The stuff that nobody shows you
jnunemaker
PRO
3
330
Leading Effective Engineering Teams in the AI Era
addyosmani
9
1.7k
Darren the Foodie - Storyboard
khoart
PRO
3
2.6k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
59
50k
The Hidden Cost of Media on the Web [PixelPalooza 2025]
tammyeverts
2
220
The MySQL Ecosystem @ GitHub 2015
samlambert
251
13k
The Illustrated Children's Guide to Kubernetes
chrisshort
51
52k
JAMstack: Web Apps at Ludicrous Speed - All Things Open 2022
reverentgeek
1
370
SEO Brein meetup: CTRL+C is not how to scale international SEO
lindahogenes
0
2.4k
How to optimise 3,500 product descriptions for ecommerce in one day using ChatGPT
katarinadahlin
PRO
1
3.5k
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
66
Transcript
論⽂解説 Masked-attention Mask Transformer for Universal Image Segmentation Takehiro Matsuda
2 論⽂情報 • タイトル:Masked-attention Mask Transformer for Universal Image Segmentation
• 論⽂: https://arxiv.org/abs/2112.01527 • コード: https://github.com/facebookresearch/Mask2Former • 投稿学会: CVPR2022 • 著者: Bowen Cheng, Ishan Misra, Alexander G. Schwing, Alexander Kirillov, Rohit Girdhar • 所属:Facebook AI Research (FAIR), University of Illinois at Urbana-Champaign (UIUC) 選んだ理由: • Transformerを使ったユニバーサルなアーキテクチャを提案し、セグメンテーション タスクについてSemantic, Instance, Panopticの違いによらず使える • Semantic, Instance, PanopticそれぞれでこれまでのSOTAを超える性能を達成した。
3 論⽂概要 Panoptic Instance Semantic Transformer DecoderにMasked Attentionを導⼊する Transformer decoderをMulti-scaleにする。
学習で得られたMask領域におけるMasked Attentionにより 局所的な特徴を精度良く捉える。 Panoptic: COCO Panopnic val2017 Instance: COCO val2017 Semantic: ADE20K SOTAを達成 Ground Truth Prediction Ground Truth Prediction
4 Segmentationの違い Pixel毎にクラスを認識 指定したクラス の存在する場所 を認識、同じク ラスでも別個体 は分ける (空などを対象ク ラスにしなけれ
ば識別されない Pixelがある) Thingはinstanceと して認識、 Stuff(空や道路)も 認識
5 関連論⽂ DETR( Detection Transformer) : Object DetectionでTransformerを導⼊ MaskFormer: SegmentationでTransformerによるMaskを作り出し、推定する
FAIR (Facebook AI Research)が出しているTransformerを使った画像認識に 関する⼀連の論⽂の流れ DETR MaskFormer TransformerでGlobalな特徴や関係を抽出できる が、⼩さい物体の認識は若⼲苦⼿だったことや ⼤きな計算リソースが必要だった点を改良する。
6 Transformer概説 https://www.slideshare.net/SSII_Slides/ssii2022-ts1-transformer (⽜久⽒資料より)
7 Transformer概説
8 Transformer概説
9 Transformer概説
10 Transformer概説
11 Transformer概説
12 Transformer概説
13 Transformer概説
14 DETR Anchorの設定やNMS(Non Maximum Suppression)を必要としない。
15 DETR ⾼解像度の近傍Pixel(領域) の特徴はCNNネットワーク でエンコードして取得(W, H は1/32, Cは2048) CNNから取り出された画像の特徴量からAttentionを⽤い て各物体の位置や種類の情報に変換
事前に決められた個数Nの物体を予測する 他の予測内容を考慮して⾃⾝の予測するEncoder-Decoder ネットワーク Transformerの出⼒を物体の位置座 標・クラスラベルにデコードする ネットワーク
16 MaskFormer TransformerでSemantic SegmentationとPanoptic Segmentationを⾏う Ground Truth Prediction Ground Truth
Prediction
17 MaskFormer Per-Pixel Classification is Not All You Need for
Semantic Segmentation Binary mask predictionsを取得する transformer decoderでN個のclass predictionsと mask embeddingsを取得 Binary MaskにたいしてPixelごとのmask lossを算出 Maskごとにクラス推定のlossを算出 Segmentation TaskをMask classificationとして、 (1) 画像からN個のbinary mask 領域を作成 (2) 各マスク領域をK個の認識 カテゴリそれぞれに所属 する確率をだす
18 Mask2Former MaskFormerの弱点を改良 • ⼩さな対象の精度が悪い • ⼤きなコンピュータリソース • ⻑い学習時間 panoptic
segmentation (57.8 PQ on COCO) instance segmentation (50.1 AP on COCO) Semantic segmentation (57.7 mIoU on ADE20K). SOTAを達成
19 Masked Attention Masked attention 画像全体から学習されるcross-attentionに変わり、 オブジェクトクエリの予測に基づいて⽣成され たマスクを使って特定領域内でAttentionをとる。 通常のcross attention
Masked attention ⼩物体や物体境界などの細部の認識が改善さ れるのではないか。 We hypothesize that local features are enough to update query features and context information can be gathered through self-attention.
20 Multi-scale high-resolution features Pixel Decoderで元画像の1/32, 1/16, 1/8の Feature Pyramidを作り、Transformer
Decoder もそれぞれに対応する Transformer Decoder 3 x L layers 画像系ではよく使われる解像度のPyramid構造を採⽤ ⼩さなオブジェクトの認識性能を上げる
21 Optimization improvements 通常のTransformer Decoder layerはquery featuresを⽣み出すのにself-attention module, cross- attention,
feed-forward networkを順に送るが、 SelfとMasked(Cross) -attentionの順番を 変え、query featuresを学習可能にした。 Dropoutをなくした。 (これまではresidual connectionsと attention mapsに適応していた)
22 Computer resource reduction MaskFormerでは1つの画像で32GメモリのGPUが必要だった。 PointRendやImplicit PointRendから着想を得て、mask lossを計算するのに、mask全体でなく、 K(=12544=112 x112)個のランダムサンプルされた点で計算する。
推論とground truthとのfinal lossはimportance samplingで別にとったK個のサンプルされた点で⾏う。 最終的に、Mask2Formerでは1つの画像で必要なメモリが18GBから6GBまで削減された。 ⾼解像のMask predictionのため
23 PQ Metrics Average IoU 正しく認識できたものの 割合(F1 scoreに似たもの) IoU >=0.5でTP
Panoptic Segmentationの性能評価指標
24 Experiment – Panoptic Segmentation COCO panoptic val 2017 with
133 categories
25 Panoptic Segmentation Visualization GT GT predict predict
26 Experiment – Instance Segmentation COCO val 2017 with 80
categories
27 Instance Segmentation Visualization GT GT predict predict
28 Experiment – Semantic Segmentation ADE20K val with 150 categories
Single scale Multi scale
29 Semantic Segmentation Visualization GT GT predict predict
30 参考資料 DETR https://arxiv.org/abs/2005.12872 https://github.com/facebookresearch/detr MaskFormer https://arxiv.org/abs/2107.06278 https://github.com/facebookresearch/MaskFormer Panoptic Segmentation
https://arxiv.org/abs/1801.00868 Transformerの最前線 (オムロンサイニックエックス ⽜久⽒) https://www.slideshare.net/SSII_Slides/ssii2022-ts1-transformer