MLPシリーズ「強化学習」輪読会 での発表資料です。 5.3 説の「ブラックボックス生成モデル」に対するプランニングについてまとめました。
MLPシリーズ「強化学習」輪読会 #5「ブラックボックス生成モデル」に対するプランニング2020/01/14, Naoto Shimakoshi
View Slide
自己紹介2• 名前• 島越 直⼈ (シマコシ ナオト)• よくトリゴエと間違えられますがシマコシです。• Twitter• @nt_4o54• 経歴• 機械系出⾝• 某IT企業でデータサイエンティスト⼀年⽬• 最近強化学習に興味あり• Kaggle• @shimacos (⾦ 1, ソロ銀 2, ソロ銅3)• Kaggle Master
5章の後半からを扱います3
5.3 ブラックボックス生成モデルに対するプランニング4• ブラックボックス⽣成モデルとは• 任意の状態⾏動対の⼊⼒に対して報酬と次ステップの状態を出⼒するようなモデル ( )• シミュレータやドメイン知識、データから設計したものを扱う (確率的なものが多い)• プランニングのアプローチの種類• 幅優先探索• 動的計画法 (ref. Chapter 2), スパースサンプリング法 (確率的幅優先探索)• 深さ優先探索• UCT法 -> モンテカルロ⽊探索
• 状態数に計算量が依存しないため、状態数が⾮常に⼤きいときに有効• 各親ノードの⾏動に対して からN回サンプリングを⾏うことで⽊を成⻑させる• これを事前に決めたパラメータTだけ深さ⽅向に繰り返す• 後⽅から再帰的に状態価値関数を計算• 注意点:動的計画法と異なり、⼊⼒された状態の最適⾏動しか求めない5.3.1 スパースサンプリング法5親ノード孫ノード⼦ノード
• 元論⽂でスパースサンプリング法で求まる⽅策がε最適であるための条件が⽰されている。• 条件: がMDP、報酬の上限値が既知 ( )• 割引率を1に近づけるほどTとNを⼤きくしなければいけない。• 割引率を1に近づけたい(先のことをなるべく考慮したい)問題設定には不向き5.3.1 スパースサンプリング法のNとTの設定方法6
• スパースサンプリング法と異なり、経験的に良さそうな⾏動を優先的に選択• 深さ優先探索を⾏い、探索を⾏ったノードのみ⽊に追加する• 各ノードが滞在回数 を保持する• 多腕バンディットにおけるUCBI法に基づいた⾏動選択• 同⼀の値があればランダムに選択• Tはスパースサンプリング法によって決定することもある• 探索した経験に基づき価値関数を更新• 常に平均値になるように更新を⾏う5.3.2 UCT法7探索強度を定めるハイパラ⼤きいほど探索回数が少ないノードを探索(報酬の⼤きさ、割引率により決定)
• UCT1法• 通常のUCT法は異なるタイムステップの状態を異なるものとして扱うが、これを同⼀のものとして扱い、ノード間でmやqを共有する• その他のアプローチ• ⾏動価値関数を関数近似することで汎化性能を⾼める• TD (λ)法のように にnステップ切断リターンを⽤いることで、推定分散を⼩さくする5.3.2 UCT法の改良8
• UCT法の⼀般化• 意思決定系列のシミュレーションをRollout、Rolloutに⽤いる⽅策を既定⽅策と呼ぶ• 既定⽅策は多くの場合、ランダム⽅策• UCT法とは異なり、根ノードに近い⼀部のノードのみ保持する• アルファ碁など多くのゲームAIの基礎• アルゴリズム (http://blog.brainpad.co.jp/entry/2018/04/05/163000が分かりやすい)• ⽊探索:葉ノードに到達するまで状態観測と⾏動選択を繰り返す (UCT法が使われることが多い)• ノード展開:経験回数が閾値を超えた場合、新たに状態ノードとそれに対応する状態⾏動対の⼦ノードを作成し、初期化• 葉ノード評価:葉ノード以降について既定⽅策によるロールアウトを実施することで獲得• ノード更新:葉ノードの評価結果を根ノードまで伝播させ、各ノードの統計量を更新5.3.3 モンテカルロ木探索 (MCTS)9