Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介] Mastering Diverse Domains through World ...
Search
tt1717
October 25, 2023
Research
0
67
[論文紹介] Mastering Diverse Domains through World Models
PDFファイルをダウンロードすると,スライド内のリンクを見ることができます.
tt1717
October 25, 2023
Tweet
Share
More Decks by tt1717
See All by tt1717
[論文サーベイ] Survey on GPT for Games
tt1717
0
23
[論文サーベイ] Survey on World Models for Games
tt1717
0
31
[論文サーベイ] Survey on Linguistic Explanations in Deep Reinforcement Learning of Atari Tasks
tt1717
0
32
[論文サーベイ] Survey on Visualization in Deep Reinforcement Learning of Game Tasks 2
tt1717
0
30
[論文サーベイ] Survey on VLM and Reinforcement Learning in Game Tasks (Minecraft)
tt1717
0
49
[論文紹介] RT-1: Robotics Transformer for Real-World Control at Scale
tt1717
0
77
[論文紹介] Chip Placement with Deep Reinforcement Learning
tt1717
0
47
[論文紹介] Human-level control through deep reinforcement learning
tt1717
0
230
[論文紹介] Transformer-based World Models Are Happy With 100k Interactions
tt1717
0
100
Other Decks in Research
See All in Research
CoRL2024サーベイ
rpc
1
1.3k
QGISハンズオン事に質問のあったProjectのGeoPackageへの保存方法についての、補足の資料です。
wata909
0
110
研究の進め方 ランダムネスとの付き合い方について
joisino
PRO
58
23k
Composed image retrieval for remote sensing
satai
2
150
Whoisの闇
hirachan
3
220
Weekly AI Agents News! 11月号 プロダクト/ニュースのアーカイブ
masatoto
0
260
精度を無視しない推薦多様化の評価指標
kuri8ive
1
340
한국어 오픈소스 거대 언어 모델의 가능성: 새로운 시대의 언어 이해와 생성
inureyes
PRO
0
140
Global Evidence Summit (GES) 参加報告
daimoriwaki
0
220
文化が形作る音楽推薦の消費と、その逆
kuri8ive
0
220
医療支援AI開発における臨床と情報学の連携を円滑に進めるために
moda0
0
140
地理空間情報と自然言語処理:「地球の歩き方旅行記データセット」の高付加価値化を通じて
hiroki13
1
160
Featured
See All Featured
Building an army of robots
kneath
302
45k
Done Done
chrislema
182
16k
Visualization
eitanlees
146
15k
A Modern Web Designer's Workflow
chriscoyier
693
190k
Exploring the Power of Turbo Streams & Action Cable | RailsConf2023
kevinliebholz
28
4.5k
GraphQLの誤解/rethinking-graphql
sonatard
68
10k
CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again
sstephenson
160
15k
Site-Speed That Sticks
csswizardry
2
270
Fontdeck: Realign not Redesign
paulrobertlloyd
82
5.3k
Documentation Writing (for coders)
carmenintech
67
4.5k
Gamification - CAS2011
davidbonilla
80
5.1k
Agile that works and the tools we love
rasmusluckow
328
21k
Transcript
どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? どうやって有効だと検証した? ・先行研究では特定タスクやドメインに特化していたが,Dreamerv3で は多くのドメインにわたるタスクを解決できる汎用的でスケーリング特 性をもつ手法を提案. ・チューニングが少なくて済み,タスクや環境の変化に対して堅牢. ・優れたスケーリング特性により先行研究よりも大規模で複雑なタスク を処理できる.
・複数のベンチマークで性能評価 行動空間が離散or連続,空間が2Dor3D,報酬が疎or密なものを対 象. ・モデルサイズの変更による性能評価 ・世界モデルによる未来予測 ・Minecraftダイヤモンド収集タスクによる評価 ・Dreamerv2をより汎用的に使える手法にするためにいくつか工夫 ・ドメインが変わっても常に同じハイパラで学習できるように 1.観測や報酬の値をsymlog関数で変換する. 2.Actorの目的関数ではλ収益の値を正規化する. ・固定ハイパラを用いた広範囲のドメインにおいて,既存手法を超 えた. ・Dreamerv3はスケーリング特性により,大きなモデルを使用する と高いデータ効率と高い最終パフォーマンスを獲得. ・「人間のデータ」「カリキュラム学習」を使わずに,ゼロから Minecraftでダイヤモンド採集タスクに成功した. Mastering Diverse Domains through World Models (arXiv 2023)Danijar Hafner, Jurgis Pasukonis, Jimmy Ba, Timothy Lillicrap https://arxiv.org/pdf/2301.04104v1.pdf 2023/05/06 論文を表す画像 被引用数:947 1/11
Symlog Prediction ❏ ドメインが変わると,観測や報酬の値のスケールが変わるので,逐一 ハイパラを調整する必要がある ❏ それをしなくていいように,symlog関数をかけることで値をある程度 揃える ❏ 可逆な関数なので,逆関数をかければ元の値に戻せる
2/11
λ収益の正規化 ❏ エントロピー正則化付きでactorを学習する場合,その係数のチューニ ングは報酬のスケールやスパース性に依存するので難しい ❏ うまく報酬の値を正規化できれば,ドメインによらずエントロピー項 の係数を固定できるはず ❏ 収益を5~95%分位数の幅で正規化する ❏
単純に分散で正規化すると,報酬がスパースなときに,収益が過大評 価されてしまうので,外れ値を弾けるようにこの形にする 3/11
実験(ベンチマーク) ❏ すべてのドメイン・タスクで同じハイパラで高い性能が出せる ❏ チューニングの必要がなくなる 4/11
実験(スケーリング) ❏ モデルサイズによって性能がスケールすることを確認 ❏ 最終パフォーマンスとデータ効率向上 ❏ 勾配ステップ数を増やすと,データ効率がさらに向上 ❏ 最終パフォーマンスはどれも同じ 5/11
実験(データ効率) ❏ DMLabタスクでDreamerv3はIMPALAの約1/130のデータ効率 ❏ さらに,Dreamerv3の最終パフォーマンスがIMPALAを超えている 6/11
実験(世界モデルにおける未来予測) ❏ 上2段がDMLabタスクにおける結果 ❏ 下2段がControl Suiteタスクにおける結果 7/11
実験(Minecraftタスク) ❏ Minecraftタスクで初めてRL agentがダイヤモンドを取ることに成功 8/11
まとめ ❏ Dreamerv2の発展版を提案 ❏ Minecraftタスクでダイヤモンドを採取できるのはすごいと感じた ❏ Minecraftタスク40回のプレイすべてで,ダイヤモンドを採取できな い ❏ 人間だと40回の全プレイにおいて,ダイヤモンドを採取できると
予想 ❏ より横断的にゲーム環境のタスクでテストの実施が必要 9/11
補足:用語の意味 ❏ カリキュラム学習 ❏ タスクの難易度を徐々に上げて,効率的にエージェントを学習さ せる方法 ❏ トレーニング率 ❏ ステップ数に対するトレーニング中に実行された環境ステップ数
の比率 10/11
参考文献 ❏ モリカトロンAIラボ ❏ 松尾研究室スライド ❏ Danijar Hafnerサイト ❏ ステートオブAIガイド
11/11