Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[Journal club] MOKA: Open-Vocabulary Robotic Ma...
Search
Semantic Machine Intelligence Lab., Keio Univ.
PRO
November 15, 2024
Technology
0
290
[Journal club] MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual Prompting
Semantic Machine Intelligence Lab., Keio Univ.
PRO
November 15, 2024
Tweet
Share
More Decks by Semantic Machine Intelligence Lab., Keio Univ.
See All by Semantic Machine Intelligence Lab., Keio Univ.
[Journal club] VLA-Adapter: An Effective Paradigm for Tiny-Scale Vision-Language-Action Model
keio_smilab
PRO
0
48
[Journal club] Improved Mean Flows: On the Challenges of Fastforward Generative Models
keio_smilab
PRO
0
91
[Journal club] MemER: Scaling Up Memory for Robot Control via Experience Retrieval
keio_smilab
PRO
0
69
[Journal club] Flow Matching for Generative Modeling
keio_smilab
PRO
1
310
Multimodal AI Driving Solutions to Societal Challenges
keio_smilab
PRO
2
180
[Journal club] Re-thinking Temporal Search for Long-Form Video Understanding
keio_smilab
PRO
0
36
[Journal club] Focusing on What Matters: Object-Agent-centric Tokenization for Vision Language Action Models
keio_smilab
PRO
0
10
[Journal club] EXPERT: An Explainable Image Captioning Evaluation Metric with Structured Explanations
keio_smilab
PRO
0
67
[Journal club] FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction
keio_smilab
PRO
0
95
Other Decks in Technology
See All in Technology
小さく、早く、可能性を多産する。生成AIプロジェクト / prAIrie-dog
visional_engineering_and_design
0
310
Contract One Engineering Unit 紹介資料
sansan33
PRO
0
12k
技術選定、下から見るか?横から見るか?
masakiokuda
0
170
モダンデータスタックの理想と現実の間で~1.3億人Vポイントデータ基盤の現在地とこれから~
taromatsui_cccmkhd
2
300
Agentic AIが変革するAWSの開発・運用・セキュリティ ~Frontier Agentsを試してみた~ / Agentic AI transforms AWS development, operations, and security I tried Frontier Agents
yuj1osm
0
180
Keynoteから見るAWSの頭の中
nrinetcom
PRO
1
160
AI時代のアジャイルチームを目指して ー スクラムというコンフォートゾーンからの脱却 ー / Toward Agile Teams in the Age of AI
takaking22
3
1k
1万人を変え日本を変える!!多層構造型ふりかえりの大規模組織変革 / 20260108 Kazuki Mori
shift_evolve
PRO
4
520
歴史から学ぶ、Goのメモリ管理基礎
logica0419
4
710
AI駆動開発ライフサイクル(AI-DLC)の始め方
ryansbcho79
0
290
re:Invent2025 セッションレポ ~Spec-driven development with Kiro~
nrinetcom
PRO
2
160
Next.js 16の新機能 Cache Components について
sutetotanuki
0
210
Featured
See All Featured
Navigating Weather and Climate Data
rabernat
0
61
What's in a price? How to price your products and services
michaelherold
246
13k
StorybookのUI Testing Handbookを読んだ
zakiyama
31
6.5k
Amusing Abliteration
ianozsvald
0
79
Building Applications with DynamoDB
mza
96
6.9k
Making Projects Easy
brettharned
120
6.5k
Context Engineering - Making Every Token Count
addyosmani
9
580
Stewardship and Sustainability of Urban and Community Forests
pwiseman
0
88
How to audit for AI Accessibility on your Front & Back End
davetheseo
0
130
Game over? The fight for quality and originality in the time of robots
wayneb77
1
73
Navigating Algorithm Shifts & AI Overviews - #SMXNext
aleyda
0
1.1k
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.3k
Transcript
慶應義塾大学 杉浦孔明研究室 名字氏名 MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual
Prompting Kuan Fang, Fangchen Liu, Pieter Abbeel, Sergey Levine (UC Berkeley) RSS 2024 慶應義塾大学 杉浦孔明研究室 是方諒介 Fang, K., Liu, F., Abbeel, P., Levine, S. "MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual Prompting.“ RSS 2024.
概要 背景 ✓ open-vocabularyな指示文に基づく物体操作タスク ✓ 基盤モデルの常識的な知識への期待 提案 ✓ VLMによるhigh/low-levelな2段階のreasoning ✓
VQAに帰着したkeypoint予測に基づくaffordance検出 結果 ✓ 実機において階層的な物体操作タスクを実施し,既存手法を上回る成功率 ✓ ロボティクス基盤モデルによる拡張性を示唆 2
背景:open-vocabularyな指示文に基づく物体操作 ◼ 課題 ◼ 指示文の曖昧さ,複雑性,階層性 ◼ 多様かつ未知の物体/環境への汎化 → 常識的な知識を持つ基盤モデルに期待
LLMは視覚情報が欠落し,3D空間の認知に弱い ☺ VLMにより,視覚と軌道生成との中間的な affordance表現をkeypointとして獲得 3 "Insert the pink roses into the vase." "Put the scissors in the hand."
関連研究:VLMによるkeypoint予測を扱う手法は少ない 4 手法 概要 Code as Policies [Liang+, ICRA23] LLMにより,指示文を実行可能なコードに変換
VLMを用いておらず,視覚的な接地が不十分 VoxPoser [Huang+, CoRL23] voxel value mapを構築し,LLM / VLMを用いてプランニング 性能がvoxel mapの解像度に依存 ViLa [Hu+, 23] GPT-4Vを用いたプランニング low-levelなスキルを事前に定義する必要がある Code as Policies VoxPoser ViLa
提案手法:Marking Open-vocabulary Keypoint Affordances (MOKA) ◼ VLM (GPT-4V) によるhigh /
low-levelな2段階のreasoning ◼ affordance検出を,keypoint / waypoint選択に関するVQAに帰着 ◼ 対象物体の候補点/全体をgrid状に分割した候補領域を観測画像に重畳 5
high-level reasoning:階層的な指示文をサブタスクに分解 ◼ サブタスクごとに把持物体,干渉物体,操作方向を特定 ◼ GroundedSAM [Ren+, 24] により対象物体のセグメンテーションマスクを取得 6
Grounding DINO [Liu+, 23] + SAM [Kirillov+, ICCV23] :プロンプト :指示文 :初期の観測画像
low-level reasoning (1/2):マーキングによる視覚的なプロンプト ◼ VLMは座標を直接予測するより候補から選択する方が正確 (cf. SoM [Yang+, 23]) ◼
keypoint候補:PointNet [Qi+, CVPR17] による輪郭上の 点 + 物体の中心1点 ◼ waypoint候補:観測画像全体をgrid状に分割 → そこから一様に1点をサンプリング 7 SoM
low-level reasoning (2/2):VLMの「選択」によるkeypoint / waypoint予測 ◼ サブタスクごとに把持,作用,干渉keypoint,および動作waypointを選択 8 :プロンプト, :サブタスク,
:現在の観測画像, :マーキング処理
成功例に基づく改良:in-context learning, policy distillation ◼ in-context learning ◼ 3つの成功例(画像,出力)をVLMのプロンプトに追加 ◼
policy distillation ◼ ロボティクス基盤モデル Octo [Ghosh+, 23] ◼ RT-X [Vuong+, CoRL23] データセットの800Kの軌道でpre-trained ◼ 本タスクにおいて,50の軌道でfine-tuning 9 Octo RT-X
定量的結果:既存手法を上回るタスク成功率 [%] ◼ それぞれ2つのサブタスクから成る,合計4タスクを各々10回試行 ◼ 考察 ✓ すべてのサブタスクにおいて,既存手法と同等または上回った ✓ 蒸留の寄与より,data
generatorとしての応用可能性を示唆 10
定性的結果 (1/2):階層的なタスクを正確に実施 ◼ Table Wiping ◼ Laptop Packing 11 "Unplug
the charge cable and close the lid of the laptop." "Move the eyeglasses onto the yellow cloth and use the brush to sweep the snack package to the right side of the table."
定性的結果 (2/2):異なる指示文,配置,形容に対して頑健 ◼ 同じタスクに関して,多様な条件で評価 12
まとめ 背景 ✓ open-vocabularyな指示文に基づく物体操作タスク ✓ 基盤モデルの常識的な知識への期待 提案 ✓ VLMによるhigh/low-levelな2段階のreasoning ✓
VQAに帰着したkeypoint予測に基づくaffordance検出 結果 ✓ 実機において階層的な物体操作タスクを実施し,既存手法を上回る成功率 ✓ ロボティクス基盤モデルによる拡張性を示唆 13
Appendix:疑似コード 14
Appendix:high-level reasoningに用いるプロンプト 15
Appendix:low-level reasoningに用いるプロンプト (1/2) 16 入力に関する説明 keypoint / waypointの定義
Appendix:low-level reasoningに用いるプロンプト (2/2) 17 出力に関する説明
Appendix:その他のタスク 18 ◼ Watch Cleaning ◼ Gift Preparation
Appendix:Ablation Study 19
Appendix:エラー分析 20