Upgrade to Pro — share decks privately, control downloads, hide ads and more …

2022年度ロボットフロンティア第1回

 2022年度ロボットフロンティア第1回

5/11中部大学にて.確率ロボティクスの紹介.

114d1b33c50cdc86c4c641682190407f?s=128

Ryuichi Ueda

May 11, 2022
Tweet

More Decks by Ryuichi Ueda

Other Decks in Technology

Transcript

  1. 確率ロボティクス入門 第1回 千葉工業大学 上田隆一 2022年5月18日 @中部大学

  2. 移動 • 地球上に住んでいると発生する行動,イベント • 目的地から目的地へ • 知らないところから目的地へ • 未知領域への進出 •

    逃亡 • 移動が得意な動物 • 渡り鳥やクジラ: 空や海を数千キロ移動 • 鳩,犬,猫: 遠いところから帰還 • 人間: 文字や言葉を手掛かりに移動 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 2 (どういう仕組みなのかはさておき) 生きるために備わる仕組み
  3. 移動知能の研究 • 生物学や医学,神経科学 • 行動の調査 • 脳の部位や神経細胞を調査 • 場所の座標や移動量, 特徴に反応する神経細胞

    (2014 年ノーベル生理学医学賞) • 他,ランドマークの記憶や 時系列情報の記憶など 様々な役割を持つ細胞 • ロボティクス (次ページ) 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 3 場所細胞[O’keefe71] 格子細胞[Moser05] 場所細胞: Stuartlayton at English Wikipedia, CC BY-SA 3.0, via Wikimedia Commons, https://commons.wikimedia.org/wiki/File:Boundary_cell.png. 格子細胞: Khardcastle, CC BY-SA 4.0, via Wikimedia Commons, https://commons.wikimedia.org/wiki/File:Autocorrelation_image.jpg. ボー ダー細胞: Tom Hartley, Colin Lever, Sarah Stewart, CC BY-SA, via Wikimedia Commons, https://commons.wikimedia.org/wiki/File:Boundary_cell.png ボーダー細胞[Solstad08]
  4. ロボティクスにおける移動知能の研究 • 目的: 動物のように(動物を超えて)賢い移動を目指す • 動物(人間)のいる環境でロボットを活動させるので, 動物(人間)のような能力が必要 • アプローチ •

    ソフトウェア的には次の2つの流れ • 動物を真似る: 人工ニューラルネットワークや脳の機能,強化学習 • ブームがたびたび来る • 1960年ごろ,1990年前後,2000年代後半~ • 動物を真似ない: 制御,探索,計画問題,機械学習 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 4
  5. 動物を真似る方法の例 • RatSLAM [Milford2007] • 未知環境の地図を作成 • 場所細胞のアイデアを利用 • end-to-end学習

    • 人工ニューラルネットワークを学習 • 画像を動作に直接対応付け • 2020年代の技術? 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 5 [岡田SI2021]の実験動画
  6. 動物を真似ない方法 • 背景となっていた技術(確率ロボティクス以前) • 制御: 工場の機械やロボットの振動抑制や動作生成 • 探索: チェス,将棋,囲碁での最善手の選択 2022

    5 11 年 月 日 @ ロボットフロンティア 中部大学 6 「左手法」というアルゴリズムで 動くマウス フィードバック制御 A*探索[Pearl1984] (AtsushiSakai/PythonRoboticsで作成) RRT[LaValle1998] (AtsushiSakai/PythonRoboticsで作成)
  7. どっちの方法がよい? • どっちも大事 • 最終的に動けばよい • どちらからも様々な方法でアプローチ→たまにブレイクスルー • そのときの流行は,ブレイクスルーが起こしている •

    動く動かないは別として,「移動する知能」を理解することも大事 • 実世界で機能するニューラルネットワークを解析 (医学に近い) • アルゴリズムの考案 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 7 最終的にはどちらも 同じ理論に行きつく ここまでの漫談で重要なこと: ロボット屋はいろいろ知らないといけないので大変
  8. これから話をする「確率ロボティクス」 • 「動物を真似ない方法」を 1995年~2005年ごろに発展させた分野 • 現在の移動ロボットや自動運転車の技術の基礎 • 何を克服したか • 次のような限界を克服

    • 単純なフィードバック: 局所的な動きしか作れない • 「違う道に入った」等の大域的な間違いには対応不可能 • 探索: その通りにロボットが動かない • ロボットは将棋の駒ではない • どうやって? • ロボットに自身の位置を計算させる自己位置推定技術を確立 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 8 駒の 動き ロボットの動き (まっすぐ 走らせたつもり)
  9. 自己位置推定は難しい • (あまり移動しないけど)ゴールキーパーに注目 • 鼻先の単眼カメラで周囲を観測 • 様々な問題行動 • いない(ゴールに戻れなくなった) •

    ゴールをくるくる • 位置が前 or 横すぎ 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 9 なんでこんなに手こずって いるのだろうか? →センサの情報が信用できない
  10. センサ情報の例1 ―RoboCupにおける単眼カメラ • 三角測量できる機会は限られ,さらに測量後に 位置が動く • これは極端な例?最新のセンサなら? 2022 5 11

    年 月 日 @ ロボットフロンティア 中部大学 10 カメラの激しい3次元的な動き (姿勢が正確に分からない) 低視線,低解像度(動画: UNSW) 形状の利用は困難 (1ピクセルで誤差数十cm) フィールド端のランドマークを 単眼カメラで観測 他のロボットが衝突,視界遮り
  11. センサ情報の例2 ― LiDAR(レーザスキャナ) 2022 5 11 年 月 日 @

    ロボットフロンティア 中部大学 11 引用元: 上田研つくば チャレンジ2021本走行の動画 レーザによる距離計測結 果と照合するための地図 ロボットには,そこに ないはずの障害物に見える
  12. センサ情報の例3 ― LiDARその2 2022 5 11 年 月 日 @

    ロボットフロンティア 中部大学 12 引用元: 前ページと同じ レーザが地面に ロボットが 点字ブロックで 激しく振動
  13. センサが最新でも残る問題 • ロボットは揺れる • まだ性能が悪い • 動物は全身センサーなのにロボットはそうではない • たとえ全身センサーでも計算が大変 •

    センシングできない状況が発生 • カメラ→暗い場所 • GNSS→屋内,森林,ビル街 • レーザレンジファインダ(LiDAR)→ガラス,野原,人ごみ • オドメーター→砂利道で精度減少,人間が持ち上げて移動 • ・・・ 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 13
  14. 確率ロボティクスのアプローチ • 「情報を拾って統合」 • 「計測」や「測量」という考え方は捨て去る • 情報の拾い方,統合のしかた • 数学を利用→確率論を使うことに 2022

    5 11 年 月 日 @ ロボットフロンティア 中部大学 14
  15. センサ情報の扱い • 問題: レーザーで壁までの距離を計測したら5mでした. ロボットは壁からどれくらいの距離にいそうですか? • 計測には3cmくらいの誤差 • 素朴な答え: 5m

    • 工場等での答え: 5±0.03m • 5mだけど3cmくらい誤差がありそう • 確率ロボティクス的な答え: 全然違うかもしれない • ロボットと壁の間に人がいるなど,センサの精度以外の要因も考慮 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 15 X 壁 5m 誤差 X 壁 5m
  16. LiDARの情報の扱いの例 尤度場 • 地図と計測結果を照合して点数(尤度)をつける 2022 5 11 年 月 日

    @ ロボットフロンティア 中部大学 16 ある瞬間のLiDARの計測値 地図(黒: 壁の位置,灰: 壁周辺) 仮定1 14点(黒: 6,灰: 2) ロボットの位置を 仮定して,黒2点, 灰1点で点数を つけてみる. 仮定2 7点(黒: 1,灰: 5) 仮定1のほうが,仮定2より 2倍「尤もらしい」と考える.
  17. 尤度の定義,尤度を用いる利点 • 尤度: 𝐿𝐿(𝒙𝒙|𝐳𝐳) • 𝒙𝒙 = (𝑥𝑥, 𝑦𝑦, θ):

    ロボットの位置と向き • 𝐳𝐳: ある瞬間のセンサ情報すべて(LiDARの場合,各距離計測値のリスト) センサ情報から考えて,どこにロボットがいそうかを数値化したもの • 尤度を考えることの利点 • (適切に設計できれば)「センサの前を人などが横切る」, 「観測対象が欠けて小さく見える」などの,大きな誤差を考慮可能 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 17 先ほどのLiDARの計測 実は人がいた 人がいなくても尤度は さほど変わらない (14点と16点)
  18. 別の尤度の例 • 前ページの尤度場: 多数のセンサ値を利用することで成立 • 1本の計測値で位置を計算しなければならない場合は? • これも尤度で対応可能 • 下図:

    間に人がいることを考え,計測値以遠にも大きな尤度を付与 • 尤度関数の形状を工夫 [Thrun2005][Ueda2002][Takeuchi2010] 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 18 X 壁 L 5m 尤度L  (尤度場でもこの方法でも)尤度を用いると, 測量よりも計測の誤差や誤りに柔軟に対応可能
  19. 尤度からの自己位置推定 • まだ残る問題: 尤度だけでは自己位置が計算できない • 「ここにいることは否定できない」という情報だけ • どうするか?: 下図のような操作を繰り返す 2022

    5 11 年 月 日 @ ロボットフロンティア 中部大学 19 X Y このへん にいそう 動くと位置が 不明確に このへん が高尤度 ロボット が移動 センシング 情報の統合 左に戻る  「このへんにいそう」をどう表現するか?  情報の統合をどう計算するか?
  20. 自己位置に関する確率分布の導入 • : 𝑏𝑏(𝒙𝒙)と表現しましょう(一般的には分布は𝑝𝑝(𝒙𝒙) と表現) • (とりあえずセンサや移動と関係なく)ロボットがどこにいるかを表現 • 「ロボットの主観」と考える(信念分布と呼ばれる) 2022

    5 11 年 月 日 @ ロボットフロンティア 中部大学 20 自著「詳解確率ロボティクス」 より転載
  21. 移動前の信念分布 移動後の信念分布 移動の際の信念分布の更新 • ロボットが移動すると分布も移動 • 下: 1次元の例 • 右:

    2次元平面の例 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 21 「詳解確率ロボティクス」より転載,改変 (細かい説明はここでは無視しましょう) X X p 移動 移動 想定される動きの雑音 にあわせて分布を拡大
  22. センシングの際の信念分布の更新 • 信念分布と尤度関数を単純に掛け算すればよい • 𝑏𝑏(𝒙𝒙) ← 𝜂𝜂𝑏𝑏(𝒙𝒙)𝐿𝐿(𝒙𝒙|𝐳𝐳) • 𝜂𝜂: 𝑏𝑏(𝒙𝒙)の積分が1になるように正規化するための定数

    • なぜ単純な掛け算でよいか • 例 • A地点𝒙𝒙𝐴𝐴 ,B地点𝒙𝒙𝐵𝐵 があり,信念分布の値はそれぞれ𝑏𝑏 𝒙𝒙𝐴𝐴 , 𝑏𝑏 𝒙𝒙𝐵𝐵 • いま得られたセンサ情報𝐳𝐳 に対し上の式を適用 • 𝑏𝑏 𝒙𝒙𝐴𝐴 ← 𝜂𝜂𝑏𝑏 𝒙𝒙𝐴𝐴 𝐿𝐿 𝒙𝒙𝐴𝐴 𝐳𝐳 • 𝑏𝑏(𝒙𝒙𝐵𝐵 ) ← 𝜂𝜂𝑏𝑏 𝒙𝒙𝐵𝐵 𝐿𝐿 𝒙𝒙𝐵𝐵 𝐳𝐳 • 式を見ると,たとえば尤度でA地点のほうがB地点より2倍いる可能性 が高いと,更新後の信念分布の値もA地点のほうがB地点より2倍に 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 22
  23. 本日のまとめ • ロボットの移動 • ロボットのためには整備されていない,動物や人間の世界で活動 • センサ情報には大きな雑音やエラーが発生 • 確率ロボティクス •

    確率論で上記問題を解決する研究分野,手法群 • 今回は自己位置推定を題材に考え方を紹介 • 説明していないこと • 確率論に基づく正確な説明 • どうやってプログラムしてロボットに実装するの? 2022 5 11 年 月 日 @ ロボットフロンティア 中部大学 23 また来週!