Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[Journal Club]Label-efficient semantic segmenta...
Search
Semantic Machine Intelligence Lab., Keio Univ.
PRO
December 15, 2022
Technology
0
400
[Journal Club]Label-efficient semantic segmentation with diffusion models
Semantic Machine Intelligence Lab., Keio Univ.
PRO
December 15, 2022
Tweet
Share
More Decks by Semantic Machine Intelligence Lab., Keio Univ.
See All by Semantic Machine Intelligence Lab., Keio Univ.
[RSJ25] Feasible RAG: Hierarchical Multimodal Retrieval with Feasibility-Aware Embodied Memory for Mobile Manipulation
keio_smilab
PRO
0
130
[RSJ25] LILAC: Language‑Conditioned Object‑Centric Optical Flow for Open‑Loop Trajectory Generation
keio_smilab
PRO
0
76
[RSJ25] Multilingual Scene Text-Aware Multimodal Retrieval for Everyday Objects Based on Deep State Space Models
keio_smilab
PRO
0
82
[RSJ25] Everyday Object Manipulation Based on Scene Text-Aware Multimodal Retrieval
keio_smilab
PRO
1
62
[RSJ25] Enhancing VLA Performance in Understanding and Executing Free-form Instructions via Visual Prompt-based Paraphrasing
keio_smilab
PRO
0
110
[Journal club] Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking
keio_smilab
PRO
0
58
[Journal club] Steering Your Generalists: Improving Robotic Foundation Models via Value Guidance
keio_smilab
PRO
0
55
[Journal club] Influence-Balanced Loss for Imbalanced Visual Classification
keio_smilab
PRO
0
18
[Journal club] Learning to Rematch Mismatched Pairs for Robust Cross-Modal Retrieval
keio_smilab
PRO
0
34
Other Decks in Technology
See All in Technology
LLMを搭載したプロダクトの品質保証の模索と学び
qa
0
1.1k
プラットフォーム転換期におけるGitHub Copilot活用〜Coding agentがそれを加速するか〜 / Leveraging GitHub Copilot During Platform Transition Periods
aeonpeople
1
220
Terraformで構築する セルフサービス型データプラットフォーム / terraform-self-service-data-platform
pei0804
1
190
20250910_障害注入から効率的復旧へ_カオスエンジニアリング_生成AIで考えるAWS障害対応.pdf
sh_fk2
3
270
自作JSエンジンに推しプロポーザルを実装したい!
sajikix
1
190
要件定義・デザインフェーズでもAIを活用して、コミュニケーションの密度を高める
kazukihayase
0
120
なぜスクラムはこうなったのか?歴史が教えてくれたこと/Shall we explore the roots of Scrum
sanogemaru
5
1.7k
AWSで始める実践Dagster入門
kitagawaz
1
720
Autonomous Database - Dedicated 技術詳細 / adb-d_technical_detail_jp
oracle4engineer
PRO
4
10k
はじめてのOSS開発からみえたGo言語の強み
shibukazu
3
950
共有と分離 - Compose Multiplatform "本番導入" の設計指針
error96num
2
1.1k
DroidKaigi 2025 Androidエンジニアとしてのキャリア
mhidaka
2
380
Featured
See All Featured
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
29
2.9k
Design and Strategy: How to Deal with People Who Don’t "Get" Design
morganepeng
131
19k
Fashionably flexible responsive web design (full day workshop)
malarkey
407
66k
Put a Button on it: Removing Barriers to Going Fast.
kastner
60
4k
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
36
2.5k
Build The Right Thing And Hit Your Dates
maggiecrowley
37
2.9k
Building a Modern Day E-commerce SEO Strategy
aleyda
43
7.6k
Raft: Consensus for Rubyists
vanstee
140
7.1k
Building Adaptive Systems
keathley
43
2.7k
Designing for humans not robots
tammielis
253
25k
Embracing the Ebb and Flow
colly
87
4.8k
Intergalactic Javascript Robots from Outer Space
tanoku
272
27k
Transcript
LABEL-EFFICIENT SEMANTIC SEGMENTATION WITH DIFFUSION MODELS Dmitry Baranchuk, Ivan Rubachev,
Andrey Voynov, Valentin Khrulkov, Artem Babenko Yandex Research, ICLR2022 慶應義塾大学 杉浦孔明研究室 飯岡雄偉 Baranchuk, D., Rubachev, I., Voynov, A., Khrulkov, V., & Babenko, A. “ Label-efficient semantic segmentation with diffusion models.” ICLR2022
概要:拡散モデルをsemantic segmentationに応用 • 拡散モデルの顕著な発展 – Semantic segmentationタスクにも応用できるのでは? • 拡散モデルが有効な表現学習器となりうるのか検証 •
多様な条件での実験により効率の良い特徴量抽出を試みる – 特定のドメインにおいてSoTAを達成 • 複雑なドメインについては将来研究 2
背景:拡散モデルの概要 • Forward Step(拡散過程) – 入力画像にガウシアンノイズを徐々に加えていく – マルコフ性を持つ • ひとつ前の時刻のみによって出力が決定する
– ここでは学習は行われない • Reverse Step(逆拡散過程) – ノイズを取り除いて,元画像を復元していく • マルコフ連鎖に基づく – この過程で学習していく 3
背景:拡散モデルの概要 4 • Forward Step(拡散過程) • 計算過程・学習方法は,同研究室の過去の輪講資料を参考 – https://speakerdeck.com/keio_smilab/journal-club-denoising-diffusion-probabilistic-models 正規分布によって
𝑥𝑡 が決定 𝛽𝑡 :ノイズの強さ(0~1) 任意の𝑥𝑡 を閉形式で表現 ⇒計算の簡略化
背景:拡散モデルの概要 5 • Reverse Step(逆拡散過程) – 共分散行列は固定のスカラー値でもよいが,学習させるとより良い性能 となることが報告されている[Nichol+, ICML21] •
計算過程・学習方法は,同研究室の過去の輪講資料を参考 – https://speakerdeck.com/keio_smilab/journal-club-denoising-diffusion-probabilistic-models
背景:拡散モデルのvision taskへの応用例 • Super resolution[Saharia+, 2021] 6 • Inpainting[Yang+, ICLR21]
• Semantic editing[Meng+, ICLR22]
提案手法:モデル構造 7 Forward Step Reverse Step クラス推定
提案手法:U-Net[Ronnebeger+, MICCAI15]の構造 • Reverse Step – Denoiseされた画像ではなく,画像に加えられてい るノイズを推測 • DDPM[Ho+,
NeurIPS20]で性能向上を報告 – 中間層の出力にsegmentに関する情報が含まれて いると仮定 – 各層の深さ・time stepごとに特徴量の抽出を行う • どの特徴量を用いると効率が良いかを比較 8
提案手法:条件ごとに出力 • クラス推定 – Reverse Stepで得られた各特徴量をconcat • 8448次元 • 本実験では{B6,
B8, B10, B12}の出力を基本的 に利用 – 数字が大きいほど深い層 – 各pixelをMLPに入力してクラス分類 • この際,異なるtime stepごとに出力 – 基本は{50, 200, 400, 600, 800} – 上記の中からクラスを選択 9
実験設定:各ドメインごとに学習 • 学習方法 – ラベルなし画像でpretrain -> 再構成 – ラベルあり画像で転移学習 •
データセット – LSUN[Yu+, 2015], FFHQ[Karras+, CVPR19] • 学習時間 – 記述なし • 256×256の50枚画像の学習に210GBのRAM使用 10 https://github.com/NVlabs/ffhq-dataset
定量的結果:各データセットで最良の性能 • mean IoUによって評価 11 Pretrain時とデータセット が異なる
定性的結果:各データセットで高い性能 12 • ピクセル単位でのクラス分類
まとめ:拡散モデルをsemantic segmentationに応用 • 拡散モデルの顕著な発展 – Semantic segmentationタスクにも応用できるのでは? • 拡散モデルが有効な表現学習器となりうるのか検証 •
多様な条件での実験により効率の良い特徴量抽出を試みる – 特定のドメインにおいてSoTAを達成 • 複雑なドメインについては将来研究 13
Appendix:各層の深さ・time stepごとの性能[定量] • 小さいtime step = Reverse Stepの後半での評価が高い • 真ん中に位置するBlockほど高性能
14
Appendix:各層の深さ・time stepごとの性能[定性] • 小さいtime step = Reverse Stepの後半での評価が高い • 真ん中に位置するBlockほど高性能
15