Slide 1
Slide 1 text
どんなもの?
先行研究と比べて何がすごい?
技術の手法や肝は?
どうやって有効だと検証した?
・多視点MAEを学習し,世界モデルを学習するMV-MWMを提案
・シミュレーションで学習した方策をカメラキャリブレーションな
しで実ロボットタスクを解決できる
・ビジュアルフィードバックによるロボット制御の頑健性を示す
・MWMをベースラインとして比較する
・マルチビュー制御&シングルビュー制御と視点ロバスト制御タス
クを実施
・視点ランダムによる実験
・アブレーションスタディ
「視点にマスク,ビデオAEのありなし,マスキング比率」
1.多視点データが与えられたときに,ランダムに画像をマスクした
視点をマスクしていない視点の両方の画素を再構成する多視点MAE
の学習を行う
2.多視点MAEから取得した特徴から世界モデルを学習し,シミュ
レーションと実世界の両方で「マルチビュー制御,シングルビュー
制御,視点ロバスト制御」などの様々なロボット制御を行う
・MWM (Masked World Model)の入力に使う画像を多視点画像を入
力としたもの
・複数のランダムな視点で学習した多視点MAEにより,カメラキャ
リブレーションなしに実ロボットタスクを解決
Multi-View Masked World Models for Visual Robotic Manipulation
(ICML 2023) Younggyo Seo, Junsu Kim, Stephen James, Kimin Lee, Jinwoo Shin, Pieter Abbeel
https://arxiv.org/abs/2302.02408
2023/06/18
論文を表す画像
被引用数:1
1/7