Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介] 状態遷移差分の学習による耐故障ロボットのための強化学習
Search
tt1717
January 26, 2024
Research
0
53
[論文紹介] 状態遷移差分の学習による耐故障ロボットのための強化学習
PDFファイルをダウンロードすると,スライド内のリンクを見ることができます.
tt1717
January 26, 2024
Tweet
Share
More Decks by tt1717
See All by tt1717
[論文サーベイ] Survey on Pokemon AI 2
tt1717
0
35
[論文サーベイ] Survey on Pokemon AI
tt1717
0
66
[論文サーベイ] Survey on Minecraft AI in NeurIPS 2024
tt1717
0
62
[論文サーベイ] Survey on GPT for Games
tt1717
0
52
[論文サーベイ] Survey on World Models for Games
tt1717
0
120
[論文サーベイ] Survey on Linguistic Explanations in Deep Reinforcement Learning of Atari Tasks
tt1717
0
59
[論文サーベイ] Survey on Visualization in Deep Reinforcement Learning of Game Tasks 2
tt1717
0
61
[論文サーベイ] Survey on VLM and Reinforcement Learning in Game Tasks (Minecraft)
tt1717
0
130
[論文紹介] RT-1: Robotics Transformer for Real-World Control at Scale
tt1717
0
130
Other Decks in Research
See All in Research
最適化と機械学習による問題解決
mickey_kubo
0
140
線形判別分析のPU学習による朝日歌壇短歌の分析
masakat0
0
130
数理最適化に基づく制御
mickey_kubo
5
660
[輪講] SigLIP 2: Multilingual Vision-Language Encoders with Improved Semantic Understanding, Localization, and Dense Features
nk35jk
2
480
ウッドスタックチャン:木材を用いた小型エージェントロボットの開発と印象評価 / ec75-sato
yumulab
1
410
さくらインターネット研究所 アップデート2025年
matsumoto_r
PRO
0
640
2025年度 生成AIの使い方/接し方
hkefka385
1
700
RapidPen: AIエージェントによるペネトレーションテスト 初期侵入全自動化の研究
laysakura
0
1.5k
Adaptive Experimental Design for Efficient Average Treatment Effect Estimation and Treatment Choice
masakat0
0
130
MGDSS:慣性式モーションキャプチャを用いたジェスチャによるドローンの操作 / ec75-yamauchi
yumulab
0
230
NLP2025SharedTask翻訳部門
moriokataku
0
300
電力システム最適化入門
mickey_kubo
1
640
Featured
See All Featured
Practical Orchestrator
shlominoach
188
11k
Code Reviewing Like a Champion
maltzj
524
40k
Making Projects Easy
brettharned
116
6.3k
Testing 201, or: Great Expectations
jmmastey
42
7.5k
Save Time (by Creating Custom Rails Generators)
garrettdimon
PRO
31
1.2k
Producing Creativity
orderedlist
PRO
346
40k
Raft: Consensus for Rubyists
vanstee
140
7k
Thoughts on Productivity
jonyablonski
69
4.7k
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
657
60k
Evolution of real-time – Irina Nazarova, EuRuKo, 2024
irinanazarova
8
800
Cheating the UX When There Is Nothing More to Optimize - PixelPioneers
stephaniewalter
281
13k
Adopting Sorbet at Scale
ufuk
77
9.4k
Transcript
・walker2Dを使用 ・3通りの訓練で検証 1.正常なロボットのみで訓練 (normal policy) 2.ロボットをランダムに故障させながら訓練 (robust policy) 3.状態遷移の差分を用いて故障させながら訓練 (our
policy) どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? どうやって有効だと検証した? ・故障度合いが大きいとき,our policyとrubust policyで高い収益を 得られた ・故障度合いが小さいとき,our policyで高い収益を得られた 故障の表現 ・故障する関節をランダムに選択し,関節アクチュエータのトルク に対して,故障係数kをかける ・故障係数kは一様分布U(0.0,2.0)からサンプリングする ・MDPにおける遷移関数に対して,正常時の遷移関数と故障時の遷 移関数の差分を利用して故障度合いを表現する手法を提案 状態遷移差分の学習による耐故障ロボットのための強化学習 (JSAI 2020)大里 虹平, 川本 一彦 https://www.jstage.jst.go.jp/article/pjsai/JSAI2020/0/JSAI2020_4Rin134/_pdf 2024/01/26 論文を表す画像 被引用数:- 1/4
故障の表現 ❏ 正常時の遷移関数Tnormalと故障時の遷移関数Tbrokenが異なることを 利用 ❏ Tnormalと遷移関数Tが等しければ正常,そうでなければ故障とみなす ❏ Stdiff:ロボットの故障度合いを反映したパラメータ ❏ St:t時刻の状態
❏ Stnormal:正常時ロボットを仮定してt時刻の状態 ❏ Tnormalは未知関数なのでニューラルネットワークで表現する ❏ 定常環境でStnormalを収集し,これを教師データとして遷移予測ネッ トワークを訓練する ❏ St^normalとSt^diffは予測値を意味する 2/4
実験結果 ❏ 結果 ❏ 故障度合いが大きいとき,our policyとrobust policyで高い収益 ❏ 故障度合いが小さいとき,our policyで高い収益
3/4 ❏ 実験設定 ❏ 正常なロボットのみで訓練 (normal policy) ❏ ロボットをランダムに故障させな がら訓練 (robust policy) ❏ 状態遷移の差分を用いて故障させ ながら訓練 (our policy) ❏ hip,knee,ankleに対してkを0.25刻 みで故障させて評価する ❏ 各手法に対して3つのシード値で 3200万ステップ訓練する
❏ まとめ ❏ 正常時の遷移関数を学習する ❏ 予測される状態遷移と実際の状態遷移の差分を方策ネットワークに加える ❏ これにより,故障度合いを識別しながら学習する手法を提案 ❏ 提案手法では,正常時および故障時に遷移関数を利用しない方策より高い
収益を獲得した ❏ 感想 ❏ 提案手法の概要とイメージを掴むことができたが,方策ネットワークに入 力される「StとSt^diff」の2つを入力するのをどのように実装しているの か気になる (通常,t時刻に対する状態は1つだけいれる) ❏ 他のロボット (hopper,halfcheetah,ant)による実験でも,同様の結果が得 られるのか気になる ❏ この研究では,オンライン強化学習の設定で行っているが,オフライン強 化学習の設定で行った場合,結果に変化があるのか見てみたい まとめと感想 4/4