Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介] Masked World Models for Visual Control
Search
tt1717
October 25, 2023
Research
0
43
[論文紹介] Masked World Models for Visual Control
PDFファイルをダウンロードすると,スライド内のリンクを見ることができます.
tt1717
October 25, 2023
Tweet
Share
More Decks by tt1717
See All by tt1717
[論文サーベイ] Survey on Minecraft AI in NeurIPS 2024
tt1717
0
19
[論文サーベイ] Survey on GPT for Games
tt1717
0
32
[論文サーベイ] Survey on World Models for Games
tt1717
0
53
[論文サーベイ] Survey on Linguistic Explanations in Deep Reinforcement Learning of Atari Tasks
tt1717
0
35
[論文サーベイ] Survey on Visualization in Deep Reinforcement Learning of Game Tasks 2
tt1717
0
38
[論文サーベイ] Survey on VLM and Reinforcement Learning in Game Tasks (Minecraft)
tt1717
0
61
[論文紹介] RT-1: Robotics Transformer for Real-World Control at Scale
tt1717
0
91
[論文紹介] Chip Placement with Deep Reinforcement Learning
tt1717
0
54
[論文紹介] Human-level control through deep reinforcement learning
tt1717
0
270
Other Decks in Research
See All in Research
サーブレシーブ成功率は勝敗に影響するか?
vball_panda
0
530
新規のC言語処理系を実装することによる 組込みシステム研究にもたらす価値 についての考察
zacky1972
1
320
知識強化言語モデルLUKE @ LUKEミートアップ
ikuyamada
0
200
ソフトウェア研究における脅威モデリング
laysakura
0
1.6k
Weekly AI Agents News! 12月号 論文のアーカイブ
masatoto
0
190
言語モデルLUKEを経済の知識に特化させたモデル「UBKE-LUKE」について
petter0201
0
200
SpectralMamba: Efficient Mamba for Hyperspectral Image Classification
satai
2
150
Remote Sensing Vision-Language Foundation Models without Annotations via Ground Remote Alignment
satai
2
120
Tiaccoon: コンテナネットワークにおいて複数トランスポート方式で統一的なアクセス制御
hiroyaonoe
0
410
チュートリアル:Mamba, Vision Mamba (Vim)
hf149
6
2.1k
【NLPコロキウム】Stepwise Alignment for Constrained Language Model Policy Optimization (NeurIPS 2024)
akifumi_wachi
3
520
打率7割を実現する、プロダクトディスカバリーの7つの極意(pmconf2024)
geshi0820
0
300
Featured
See All Featured
Practical Tips for Bootstrapping Information Extraction Pipelines
honnibal
PRO
12
960
What’s in a name? Adding method to the madness
productmarketing
PRO
22
3.3k
Optimizing for Happiness
mojombo
376
70k
Scaling GitHub
holman
459
140k
BBQ
matthewcrist
87
9.5k
Six Lessons from altMBA
skipperchong
27
3.6k
Typedesign – Prime Four
hannesfritz
40
2.5k
CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again
sstephenson
160
15k
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
133
33k
Site-Speed That Sticks
csswizardry
4
380
Java REST API Framework Comparison - PWX 2021
mraible
28
8.4k
How GitHub (no longer) Works
holman
314
140k
Transcript
どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? どうやって有効だと検証した? ・報酬の予測によりタスクに適した表現を獲得 ・DreamerV2と比較して小さな物体を扱うタスクで大幅に性能改善 ・Meta-world,RLBench,DeepMind Control Suiteの環境で実験 ・特徴マスキング,マスキング比率,報酬予測に対してアブレー
ションスタディを実施 ・DreamerV2とMWMで予測画像を比較 ・MWM (Masked World Models) 1.畳み込み特徴マスキングと報酬予測によるAEの学習 2.AEから視覚表現を予測する潜在的ダイナミクスモデル学習を繰り 返し,「視覚表現」と「ダイナミクス」を別々に更新 3.「環境との相互作用から収集したサンプル」を用いて,AEと潜在 的なダイナミクスモデルを継続的に更新 ・世界モデルの画像表現学習に,「MAE」を使用 ・報酬の予測によりタスクに適した表現を獲得 Masked World Models for Visual Control (CoRL 2022) Younggyo Seo,Danijar Hafner,Hao Liu,Fangchen Liu,Stephen James,Kimin Lee,Pieter Abbeel https://arxiv.org/abs/2206.14244 2023/06/18 論文を表す画像 被引用数:19 1/10
背景:物体消失問題 ❏ 画像表現学習とタスクのギャップ ❏ 単純に再構成誤差でAEを学習し てもタスクに適した表現が得られ ない ❏ VAEのような再構成学習では面積 の小さい要素は無視してもLossが
下がる ❏ 一方で,タスクに必要なのは対象 物体の位置などの一部の情報 ❏ 学習コストの問題 ❏ 画像モデルと状態遷移モデルを同 時に学習すると,高次元データと なり計算量が増大 2/10 出典:https://arxiv.org/abs/2203.00494
Masked Autoencoder (MAE) ❏ パッチに分割された画像の75%を マスクしてViTに入力 ❏ 損失関数 ❏ マスクされたパッチの再構成誤差
(MSE) ❏ 画像分類タスクで高精度を達成 3/10 出典:https://arxiv.org/abs/2111.06377
Masked World Models (MWM) 4/10 ❏ 画像直接ではなく,中間層でマスキング(物体消失を防ぐ) ❏ パッチ内の細かいディテールを学習することが困難な場合がある ❏
再構成に加え報酬予測(報酬にかかわる情報を重視させる)
実験 5/10 ❏ Meta-world ❏ RLBench ❏ DeepMind Control Suite
結果 6/10 ❏ 性能・サンプル効率ともにDreamerV2から改善 ❏ Pick Placeタスクの小さな物体が重要なタスクでは差が顕著 ❏ Quadruped Walkタスクの小さな物体のないタスクでは同等程度
小さな物体を 扱うタスク 小さな物体を扱わ ないタスク
結果:Ablation Studies 7/10 画像直接ではなく特徴量 マスクで性能向上 75%のマスクで最高性能 報酬予測で性能向上 ❏ 特徴量マスク+マスク比率75%+報酬予測で最高性能
結果:予測画像比較 8/10 ❏ DreamerV2と比較してMWMは物体位置を予測できている 物体位置把 握 物体消失
まとめ 9/10 ❏ 世界モデルの画像表現学習にMAEを使用 ❏ 画像直接ではなく中間層でマスキング ❏ 報酬予測によりタスクに適した表現を獲得 ❏ DreamerV2と比較して小さな物体を扱うタスクで大幅に性能改善
参考文献 ❏ 松尾研究室スライド ❏ googleサイト 10/10