Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介] Mastering Diverse Domains through World ...
Search
tt1717
October 25, 2023
Research
0
62
[論文紹介] Mastering Diverse Domains through World Models
PDFファイルをダウンロードすると,スライド内のリンクを見ることができます.
tt1717
October 25, 2023
Tweet
Share
More Decks by tt1717
See All by tt1717
[論文サーベイ] Survey on GPT for Games
tt1717
0
10
[論文サーベイ] Survey on World Models for Games
tt1717
0
16
[論文サーベイ] Survey on Linguistic Explanations in Deep Reinforcement Learning of Atari Tasks
tt1717
0
26
[論文サーベイ] Survey on Visualization in Deep Reinforcement Learning of Game Tasks 2
tt1717
0
22
[論文サーベイ] Survey on VLM and Reinforcement Learning in Game Tasks (Minecraft)
tt1717
0
37
[論文紹介] RT-1: Robotics Transformer for Real-World Control at Scale
tt1717
0
65
[論文紹介] Chip Placement with Deep Reinforcement Learning
tt1717
0
43
[論文紹介] Human-level control through deep reinforcement learning
tt1717
0
180
[論文紹介] Transformer-based World Models Are Happy With 100k Interactions
tt1717
0
92
Other Decks in Research
See All in Research
アプリケーションから知るモデルマージ
maguro27
0
170
テキストマイニングことはじめー基本的な考え方からメディアディスコース研究への応用まで
langstat
1
150
Weekly AI Agents News! 11月号 プロダクト/ニュースのアーカイブ
masatoto
0
200
クロスセクター効果研究会 熊本都市交通リノベーション~「車1割削減、渋滞半減、公共交通2倍」の実現へ~
trafficbrain
0
290
研究の進め方 ランダムネスとの付き合い方について
joisino
PRO
56
20k
さんかくのテスト.pdf
sankaku0724
0
520
Composed image retrieval for remote sensing
satai
2
130
CoRL2024サーベイ
rpc
1
1.1k
Introducing Research Units of Matsuo-Iwasawa Laboratory
matsuolab
0
1.3k
ミニ四駆AI用制御装置の事例紹介
aks3g
0
180
精度を無視しない推薦多様化の評価指標
kuri8ive
1
290
言語と数理の交差点:テキストの埋め込みと構造のモデル化 (IBIS 2024 チュートリアル)
yukiar
4
920
Featured
See All Featured
Large-scale JavaScript Application Architecture
addyosmani
510
110k
What's in a price? How to price your products and services
michaelherold
243
12k
GraphQLとの向き合い方2022年版
quramy
44
13k
Bootstrapping a Software Product
garrettdimon
PRO
305
110k
The Invisible Side of Design
smashingmag
298
50k
Practical Tips for Bootstrapping Information Extraction Pipelines
honnibal
PRO
10
810
The World Runs on Bad Software
bkeepers
PRO
65
11k
Exploring the Power of Turbo Streams & Action Cable | RailsConf2023
kevinliebholz
28
4.4k
It's Worth the Effort
3n
183
28k
Why You Should Never Use an ORM
jnunemaker
PRO
54
9.1k
Principles of Awesome APIs and How to Build Them.
keavy
126
17k
jQuery: Nuts, Bolts and Bling
dougneiner
61
7.5k
Transcript
どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? どうやって有効だと検証した? ・先行研究では特定タスクやドメインに特化していたが,Dreamerv3で は多くのドメインにわたるタスクを解決できる汎用的でスケーリング特 性をもつ手法を提案. ・チューニングが少なくて済み,タスクや環境の変化に対して堅牢. ・優れたスケーリング特性により先行研究よりも大規模で複雑なタスク を処理できる.
・複数のベンチマークで性能評価 行動空間が離散or連続,空間が2Dor3D,報酬が疎or密なものを対 象. ・モデルサイズの変更による性能評価 ・世界モデルによる未来予測 ・Minecraftダイヤモンド収集タスクによる評価 ・Dreamerv2をより汎用的に使える手法にするためにいくつか工夫 ・ドメインが変わっても常に同じハイパラで学習できるように 1.観測や報酬の値をsymlog関数で変換する. 2.Actorの目的関数ではλ収益の値を正規化する. ・固定ハイパラを用いた広範囲のドメインにおいて,既存手法を超 えた. ・Dreamerv3はスケーリング特性により,大きなモデルを使用する と高いデータ効率と高い最終パフォーマンスを獲得. ・「人間のデータ」「カリキュラム学習」を使わずに,ゼロから Minecraftでダイヤモンド採集タスクに成功した. Mastering Diverse Domains through World Models (arXiv 2023)Danijar Hafner, Jurgis Pasukonis, Jimmy Ba, Timothy Lillicrap https://arxiv.org/pdf/2301.04104v1.pdf 2023/05/06 論文を表す画像 被引用数:947 1/11
Symlog Prediction ❏ ドメインが変わると,観測や報酬の値のスケールが変わるので,逐一 ハイパラを調整する必要がある ❏ それをしなくていいように,symlog関数をかけることで値をある程度 揃える ❏ 可逆な関数なので,逆関数をかければ元の値に戻せる
2/11
λ収益の正規化 ❏ エントロピー正則化付きでactorを学習する場合,その係数のチューニ ングは報酬のスケールやスパース性に依存するので難しい ❏ うまく報酬の値を正規化できれば,ドメインによらずエントロピー項 の係数を固定できるはず ❏ 収益を5~95%分位数の幅で正規化する ❏
単純に分散で正規化すると,報酬がスパースなときに,収益が過大評 価されてしまうので,外れ値を弾けるようにこの形にする 3/11
実験(ベンチマーク) ❏ すべてのドメイン・タスクで同じハイパラで高い性能が出せる ❏ チューニングの必要がなくなる 4/11
実験(スケーリング) ❏ モデルサイズによって性能がスケールすることを確認 ❏ 最終パフォーマンスとデータ効率向上 ❏ 勾配ステップ数を増やすと,データ効率がさらに向上 ❏ 最終パフォーマンスはどれも同じ 5/11
実験(データ効率) ❏ DMLabタスクでDreamerv3はIMPALAの約1/130のデータ効率 ❏ さらに,Dreamerv3の最終パフォーマンスがIMPALAを超えている 6/11
実験(世界モデルにおける未来予測) ❏ 上2段がDMLabタスクにおける結果 ❏ 下2段がControl Suiteタスクにおける結果 7/11
実験(Minecraftタスク) ❏ Minecraftタスクで初めてRL agentがダイヤモンドを取ることに成功 8/11
まとめ ❏ Dreamerv2の発展版を提案 ❏ Minecraftタスクでダイヤモンドを採取できるのはすごいと感じた ❏ Minecraftタスク40回のプレイすべてで,ダイヤモンドを採取できな い ❏ 人間だと40回の全プレイにおいて,ダイヤモンドを採取できると
予想 ❏ より横断的にゲーム環境のタスクでテストの実施が必要 9/11
補足:用語の意味 ❏ カリキュラム学習 ❏ タスクの難易度を徐々に上げて,効率的にエージェントを学習さ せる方法 ❏ トレーニング率 ❏ ステップ数に対するトレーニング中に実行された環境ステップ数
の比率 10/11
参考文献 ❏ モリカトロンAIラボ ❏ 松尾研究室スライド ❏ Danijar Hafnerサイト ❏ ステートオブAIガイド
11/11