Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Collision Prediction and Visual Explanation Gen...
Search
Semantic Machine Intelligence Lab., Keio Univ.
PRO
September 06, 2021
Technology
0
1.3k
Collision Prediction and Visual Explanation Generation for Object Placement Task by Domestic Service Robots
Semantic Machine Intelligence Lab., Keio Univ.
PRO
September 06, 2021
Tweet
Share
More Decks by Semantic Machine Intelligence Lab., Keio Univ.
See All by Semantic Machine Intelligence Lab., Keio Univ.
[Journal club] GraphEQA: Using 3D Semantic Scene Graphs for Real-time Embodied Question Answering
keio_smilab
PRO
0
49
[RSJ25] Feasible RAG: Hierarchical Multimodal Retrieval with Feasibility-Aware Embodied Memory for Mobile Manipulation
keio_smilab
PRO
0
150
[RSJ25] LILAC: Language‑Conditioned Object‑Centric Optical Flow for Open‑Loop Trajectory Generation
keio_smilab
PRO
0
92
[RSJ25] Multilingual Scene Text-Aware Multimodal Retrieval for Everyday Objects Based on Deep State Space Models
keio_smilab
PRO
0
96
[RSJ25] Everyday Object Manipulation Based on Scene Text-Aware Multimodal Retrieval
keio_smilab
PRO
1
77
[RSJ25] Enhancing VLA Performance in Understanding and Executing Free-form Instructions via Visual Prompt-based Paraphrasing
keio_smilab
PRO
0
140
[Journal club] Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking
keio_smilab
PRO
0
65
[Journal club] Steering Your Generalists: Improving Robotic Foundation Models via Value Guidance
keio_smilab
PRO
0
60
[Journal club] Influence-Balanced Loss for Imbalanced Visual Classification
keio_smilab
PRO
0
29
Other Decks in Technology
See All in Technology
ビズリーチ求職者検索におけるPLMとLLMの活用 / Search Engineering MEET UP_2-1
visional_engineering_and_design
1
130
GoでもGUIアプリを作りたい!
kworkdev
PRO
0
150
防災デジタル分野での官民共創の取り組み (2)DIT/CCとD-CERTについて
ditccsugii
0
300
AWS IoT 超入門 2025
hattori
0
340
研究開発部メンバーの働き⽅ / Sansan R&D Profile
sansan33
PRO
3
20k
サイバーエージェント流クラウドコスト削減施策「みんなで金塊堀太郎」
kurochan
4
1.9k
20251014_Pythonを実務で徹底的に使いこなした話
ippei0923
0
200
JAZUG 15周年記念 × JAT「AI Agent開発者必見:"今"のOracle技術で拡張するAzure × OCIの共存アーキテクチャ」
shisyu_gaku
1
160
React19.2のuseEffectEventを追う
maguroalternative
0
290
Oracle Base Database Service 技術詳細
oracle4engineer
PRO
12
80k
ソースを読むプロセスの例
sat
PRO
13
7k
AWS Top Engineer、浮いてませんか? / As an AWS Top Engineer, Are You Out of Place?
yuj1osm
2
220
Featured
See All Featured
How STYLIGHT went responsive
nonsquared
100
5.8k
Testing 201, or: Great Expectations
jmmastey
45
7.7k
Git: the NoSQL Database
bkeepers
PRO
431
66k
The Myth of the Modular Monolith - Day 2 Keynote - Rails World 2024
eileencodes
26
3.1k
A Modern Web Designer's Workflow
chriscoyier
697
190k
A designer walks into a library…
pauljervisheath
209
24k
Art, The Web, and Tiny UX
lynnandtonic
303
21k
Let's Do A Bunch of Simple Stuff to Make Websites Faster
chriscoyier
508
140k
Optimising Largest Contentful Paint
csswizardry
37
3.5k
BBQ
matthewcrist
89
9.8k
How to Think Like a Performance Engineer
csswizardry
27
2k
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
35
3.2k
Transcript
畑中駿平1,上田雄斗1,植田有咲1,平川翼2,山下隆義2,藤吉弘亘2,杉浦孔明1 1慶應義塾大学,2中部大学 生活支援ロボットによる物体配置タスクにおける 危険性予測および視覚的説明生成
背景:生活支援ロボットは安全にものを置くことが求められる • 人手不足の解決策として生活支援ロボットは有望視 • 生活支援ロボットの基本的動作のひとつに物体配置 − 安全配置のために衝突回避は重要 2 https://global.toyota/jp/download/8725215
問題設定:軽微な接触の連鎖から生じる衝突を予測することは難しい 1. ロボットのアームがペットボトルに接触 2. ペットボトルがマヨネーズに接触 3. マヨネーズが落下する危険な衝突が発生 物体同士の物理的相互作用の連鎖の 予測は難しい 3
✓ 衝突確率の予測 ✓ 安全領域の可視化 本研究のタスク
既存研究:生活支援ロボットが行うべき代表的なサブタスク 4 サブタスク 代表的研究 概要 Pick & Place [Zeng+, ICRA18]
新規の物体を把持して認識可能 Grasping DIRL [Tanwani+, CoRL20] 敵対的学習を用いた実環境転用 Placing PonNet [Magassouba+, AR21] Transformer PonNet [植田+, JSAI21] Attention Branch Network [Fukui+, CVPR19] を 用いて物体同士の衝突確率を予測 DIRL Transformer PonNet [Zeng+, ICRA18]
既存手法の問題点:安全である領域のみを可視化することができない Transformer PonNet では安全領域と危険領域が混合して可視化されていた − ユーザに安全領域を事前に提示できれば,物体配置の最終的な判断を仰ぐことが可能 5 安全領域 危険領域
安全領域のみ可視化する手法を提案 • ABN の特徴:画像内のどの領域に注目しているかを示す attention map を可視化
提案手法:対象物体を配置する際の衝突確率の予測・安全領域の可視化 6 入力:対象物体と配置場所のRGBD画像 出力:衝突確率・安全領域の可視化画像
デモ動画:衝突確率を予測し、安全である場合に物体を配置 7
構造 ( 1/4 ):3つのモジュールから構成 8 ①Feature Extractor,②Attention Branch,③Transformer Perception Branch
の3つから構成 ① ② ③
✓ Feature Extractor ( FE ) 配置領域・対象物体のRGBD画像の特徴量を ResNet18 の前半部分で抽出 構造
( 2/4 ):配置領域と対象物体画像の特徴量抽出 9 切り出し ゼロ埋め 𝒙 𝑘 dst 𝒙 𝑘 trg 𝑘 ∈ {rgb, depth} FE FE 配置領域 対象物体
構造 ( 3/4 ):衝突に関連する部分に注目して重み付け ✓ Attention Branch ( AB )
𝑤𝑘∈{rgb,depth} = 1 + 𝑎𝑘 ⨀ 𝑓𝑘 10 Attention Map 𝑎𝑘
構造 ( 4/4 ):RGBとdepthの特徴量を融合して衝突確率を予測 ✓ Transformer Perception Branch ( TPB
) ABNのPerception branch構造にTransformerを導入 [ 植田+, JSAI21 ] 11 𝑸(i)= 𝑊 𝑞 (𝑖)𝑜 𝑘 (𝑖), 𝑲(i) = 𝑊 𝑘 (𝑖)𝑜 𝑘 (𝑖), 𝑽(i) = 𝑊𝑣 (𝑖)𝑜 𝑘 (𝑖) 𝜔𝑘 = 𝑽(𝑖) softmax 𝑸(i) 𝑲 𝑖 T 𝑑𝑘 , 𝑑𝑘 = 𝐻 𝐴 𝑚𝑘 = 𝑸(i) + 𝛼 ⨀ 𝒉(i) 𝐻 は入力𝑜 𝑘 (𝑖)の次元数 𝐴 はヘッド数を表す
新規性:Attention map と 平面検出による安全領域 𝑠 の可視化 𝑠 = 𝑎rgb +
𝑎depth 2 ⨀ℎ ℎ :平面と検出されたピクセルの集合 ⊕ ⨀ Plane detection ℎ [Wang+, 3DV18] 安全領域 𝑠 12 𝑎rgb 𝑎depth
実験設定:simulation 環境によるデータセット 各配置場所はシミュレータによって自動的にラベル付け 13 PonNet-A-Sim データセット − 中心領域のみに配置 − 約
12,000 の衝突サンプルが記録 PonNet-B-Sim データセット − 9 領域に配置 − 各領域 1,500,合計約 13,500 の衝突サンプルが記録 − 家具,明るさ,背景の異なる 5 種類の場面を使用
定性的結果:シミュレーションデータの成功例 ✓ 障害物を避けた領域を安全領域 として獲得 RGB 画像 安全領域 𝒔 TN (
非衝突 ) TP ( 衝突 ) 14 ✓ 顕著な安全領域は可視化されない
Method Accuracy Train : A-Sim Test : A-Sim Train :
B-Sim Test : B-Sim Plane detection [Wang+, 3DV18] 82.5 72.30 PonNet [Magassouba+, AR21] 90.94±0.22 82.29±0.68 Transformer PonNet [植田+, JSAI21] パラメータ数:約2600万 91.26±0.21 82.10±0.52 Ours パラメータ数:約900万 91.23±0.32 82.28±1.77 定量的結果:ベースラインと同等または上回る結果 ✓ 提案手法はパラメータ数を削減しつつベースライン手法と同等の精度 15
エラー分析:透過物体や人から見ても判断が難しい例 入力画像 ( RGB ) 16 Attention map ( RGB
) Attention map ( Depth ) 例1 例2 正解:衝突 予測:非衝突 透過物体を捉える 人の目から見ても 判断が難しい衝突
追加実験:実機環境によるデータ収集・実験 17 • トヨタの生活支援ロボット Human Support Robot ( HSR )
を使用 • 収集した 200 個のデータを Train / Test 用に分割 ✓ 実機環境への転用の可能性を示唆 Method Accuracy Train : A-Sim + Real ( 100 ) Test : Real ( 100 ) Ours 87.39±3.12
結論:衝突確率の低い安全領域を可視化する手法の提案 本研究のポイント ✓ Attention mapと平面検出を組み合わせて 安全な領域の候補を可視化 18