Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介] Mastering Diverse Domains through World ...
Search
tt1717
October 25, 2023
Research
110
0
Share
[論文紹介] Mastering Diverse Domains through World Models
PDFファイルをダウンロードすると,スライド内のリンクを見ることができます.
tt1717
October 25, 2023
More Decks by tt1717
See All by tt1717
[勉強会] Decision Transformer
tt1717
0
56
[論文サーベイ] Survey on Google DeepMind’s Game AI 2
tt1717
0
46
[論文サーベイ] Survey on Google DeepMind’s Game AI
tt1717
0
32
[論文サーベイ] Survey on VLM for Video Game Quality Assurance
tt1717
0
29
[論文サーベイ] Survey on Pokemon AI 3
tt1717
0
82
[論文サーベイ] Survey on Pokemon AI 2
tt1717
0
76
[論文サーベイ] Survey on Pokemon AI
tt1717
0
110
[論文サーベイ] Survey on Minecraft AI in NeurIPS 2024
tt1717
0
130
[論文サーベイ] Survey on GPT for Games
tt1717
0
80
Other Decks in Research
See All in Research
SREはサイバネティクスの夢をみるか? / Do SREs Dream of Cybernetics?
yuukit
3
460
機械学習で作った ポケモン対戦bot で 遊ぼう!
fufufukakaka
0
120
"主観で終わらせない"定性データ活用 ― プロダクトディスカバリーを加速させるインサイトマネジメント / Utilizing qualitative data that "doesn't end with subjectivity" - Insight management that accelerates product discovery
kaminashi
16
23k
AIスーパーコンピュータにおけるLLM学習処理性能の計測と可観測性 / AI Supercomputer LLM Benchmarking and Observability
yuukit
1
790
The Landscape of Agentic Reinforcement Learning for LLMs: A Survey
shunk031
4
660
2026 東京科学大 情報通信系 研究室紹介 (すずかけ台)
icttitech
0
1.7k
討議:RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
0
700
2026年1月の生成AI領域の重要リリース&トピック解説
kajikent
0
910
R&Dチームを起ち上げる
shibuiwilliam
1
210
製造業主導型経済からサービス経済化における中間層形成メカニズムのパラダイムシフト
yamotty
0
550
それ、チームの改善になってますか?ー「チームとは?」から始めた組織の実験ー
hirakawa51
0
1k
データサイエンティストの業務変化
datascientistsociety
PRO
0
350
Featured
See All Featured
Cheating the UX When There Is Nothing More to Optimize - PixelPioneers
stephaniewalter
287
14k
Chrome DevTools: State of the Union 2024 - Debugging React & Beyond
addyosmani
10
1.1k
Applied NLP in the Age of Generative AI
inesmontani
PRO
4
2.2k
Dominate Local Search Results - an insider guide to GBP, reviews, and Local SEO
greggifford
PRO
0
130
SEO Brein meetup: CTRL+C is not how to scale international SEO
lindahogenes
1
2.5k
Principles of Awesome APIs and How to Build Them.
keavy
128
17k
Rails Girls Zürich Keynote
gr2m
96
14k
How STYLIGHT went responsive
nonsquared
100
6k
Optimising Largest Contentful Paint
csswizardry
37
3.6k
Code Reviewing Like a Champion
maltzj
528
40k
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.4k
Exploring the relationship between traditional SERPs and Gen AI search
raygrieselhuber
PRO
2
3.8k
Transcript
どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? どうやって有効だと検証した? ・先行研究では特定タスクやドメインに特化していたが,Dreamerv3で は多くのドメインにわたるタスクを解決できる汎用的でスケーリング特 性をもつ手法を提案. ・チューニングが少なくて済み,タスクや環境の変化に対して堅牢. ・優れたスケーリング特性により先行研究よりも大規模で複雑なタスク を処理できる.
・複数のベンチマークで性能評価 行動空間が離散or連続,空間が2Dor3D,報酬が疎or密なものを対 象. ・モデルサイズの変更による性能評価 ・世界モデルによる未来予測 ・Minecraftダイヤモンド収集タスクによる評価 ・Dreamerv2をより汎用的に使える手法にするためにいくつか工夫 ・ドメインが変わっても常に同じハイパラで学習できるように 1.観測や報酬の値をsymlog関数で変換する. 2.Actorの目的関数ではλ収益の値を正規化する. ・固定ハイパラを用いた広範囲のドメインにおいて,既存手法を超 えた. ・Dreamerv3はスケーリング特性により,大きなモデルを使用する と高いデータ効率と高い最終パフォーマンスを獲得. ・「人間のデータ」「カリキュラム学習」を使わずに,ゼロから Minecraftでダイヤモンド採集タスクに成功した. Mastering Diverse Domains through World Models (arXiv 2023)Danijar Hafner, Jurgis Pasukonis, Jimmy Ba, Timothy Lillicrap https://arxiv.org/pdf/2301.04104v1.pdf 2023/05/06 論文を表す画像 被引用数:947 1/11
Symlog Prediction ❏ ドメインが変わると,観測や報酬の値のスケールが変わるので,逐一 ハイパラを調整する必要がある ❏ それをしなくていいように,symlog関数をかけることで値をある程度 揃える ❏ 可逆な関数なので,逆関数をかければ元の値に戻せる
2/11
λ収益の正規化 ❏ エントロピー正則化付きでactorを学習する場合,その係数のチューニ ングは報酬のスケールやスパース性に依存するので難しい ❏ うまく報酬の値を正規化できれば,ドメインによらずエントロピー項 の係数を固定できるはず ❏ 収益を5~95%分位数の幅で正規化する ❏
単純に分散で正規化すると,報酬がスパースなときに,収益が過大評 価されてしまうので,外れ値を弾けるようにこの形にする 3/11
実験(ベンチマーク) ❏ すべてのドメイン・タスクで同じハイパラで高い性能が出せる ❏ チューニングの必要がなくなる 4/11
実験(スケーリング) ❏ モデルサイズによって性能がスケールすることを確認 ❏ 最終パフォーマンスとデータ効率向上 ❏ 勾配ステップ数を増やすと,データ効率がさらに向上 ❏ 最終パフォーマンスはどれも同じ 5/11
実験(データ効率) ❏ DMLabタスクでDreamerv3はIMPALAの約1/130のデータ効率 ❏ さらに,Dreamerv3の最終パフォーマンスがIMPALAを超えている 6/11
実験(世界モデルにおける未来予測) ❏ 上2段がDMLabタスクにおける結果 ❏ 下2段がControl Suiteタスクにおける結果 7/11
実験(Minecraftタスク) ❏ Minecraftタスクで初めてRL agentがダイヤモンドを取ることに成功 8/11
まとめ ❏ Dreamerv2の発展版を提案 ❏ Minecraftタスクでダイヤモンドを採取できるのはすごいと感じた ❏ Minecraftタスク40回のプレイすべてで,ダイヤモンドを採取できな い ❏ 人間だと40回の全プレイにおいて,ダイヤモンドを採取できると
予想 ❏ より横断的にゲーム環境のタスクでテストの実施が必要 9/11
補足:用語の意味 ❏ カリキュラム学習 ❏ タスクの難易度を徐々に上げて,効率的にエージェントを学習さ せる方法 ❏ トレーニング率 ❏ ステップ数に対するトレーニング中に実行された環境ステップ数
の比率 10/11
参考文献 ❏ モリカトロンAIラボ ❏ 松尾研究室スライド ❏ Danijar Hafnerサイト ❏ ステートオブAIガイド
11/11