Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Direct Preference Optimization
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Henry Cui
February 24, 2024
Science
440
0
Share
Direct Preference Optimization
Henry Cui
February 24, 2024
More Decks by Henry Cui
See All by Henry Cui
プロダクション言語モデルの情報を盗む攻撃 / Stealing Part of a Production Language Model
zchenry
1
240
Diffusion Model with Perceptual Loss
zchenry
0
500
レンズの下のLLM / LLM under the Lens
zchenry
0
220
Go with the Prompt Flow
zchenry
0
200
Mojo Dojo
zchenry
0
250
ことのはの力で画像の異常検知 / Anomaly Detection by Language
zchenry
0
680
驚愕の事実!LangChainが抱える問題 / Problems of LangChain
zchenry
0
310
MLOps初心者がMLflowを触る / MLflow Brief Introduction
zchenry
0
180
{{guidance}}のガイダンス / Guidance of guidance
zchenry
0
200
Other Decks in Science
See All in Science
データマイニング - グラフ埋め込み入門
trycycle
PRO
1
200
YouTubeにおける撤回論文の参照実態 / metascience-meetup2026
corgies
3
220
因果推論と機械学習
sshimizu2006
1
1k
Navigating Weather and Climate Data
rabernat
0
150
データベース09: 実体関連モデル上の一貫性制約
trycycle
PRO
0
1.1k
白金鉱業Meetup_Vol.20 効果検証ことはじめ / Introduction to Impact Evaluation
brainpadpr
2
1.8k
(2025) Balade en cyclotomie
mansuy
0
530
イロレーティングを活用した関東大学サッカーの定量的実力評価 / A quantitative performance evaluation of Kanto University Football Association using Elo rating
konakalab
0
240
(メタ)科学コミュニケーターからみたAI for Scienceの同床異夢
rmaruy
0
190
データから見る勝敗の法則 / The principle of victory discovered by science (open lecture in NSSU)
konakalab
1
300
データベース10: 拡張実体関連モデル
trycycle
PRO
0
1.1k
A Guide to Academic Writing Using Generative AI - A Workshop
ks91
PRO
1
250
Featured
See All Featured
svc-hook: hooking system calls on ARM64 by binary rewriting
retrage
2
190
The Invisible Side of Design
smashingmag
302
51k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
62
53k
Art, The Web, and Tiny UX
lynnandtonic
304
21k
Balancing Empowerment & Direction
lara
5
1k
Game over? The fight for quality and originality in the time of robots
wayneb77
1
150
Chrome DevTools: State of the Union 2024 - Debugging React & Beyond
addyosmani
10
1.1k
Design of three-dimensional binary manipulators for pick-and-place task avoiding obstacles (IECON2024)
konakalab
0
390
Organizational Design Perspectives: An Ontology of Organizational Design Elements
kimpetersen
PRO
1
660
Exploring anti-patterns in Rails
aemeredith
3
300
HDC tutorial
michielstock
1
600
Understanding Cognitive Biases in Performance Measurement
bluesmoon
32
2.8k
Transcript
Direct Preference Optimization 機械学習の社会実装勉強会第32回 Henry 2024/2/24
内容 ▪ NeurIPS 2023 Outstanding Main Track Runner-Ups 受賞 ▪
著者に有名な先生が多い 2
モチベーション ▪ 大量テキストで学習した言語モデルを望ましい挙動に微調整 する必要(Alignment) • 大量コードの平均能力でなく、少量存在の優れたコードに • 一般大衆のもつ誤認識でなく、それを修正すべき ▪ Alignmentを達成するために、現状2段階の複雑な強化学習
手法を使うので、それと理論上等価なシンプルな手法を提案 3
RLHFアプローチの3ステップ ▪ SFT: Supervised fine-tuning ▪ Rewardモデルを学習する • RewardモデルがBradley-Terry (BT)に従う想定
• BTの仮定で導出する損失関数 ▪ RL Fine-tune • Rewardモデルを使って、下記損失関数でfine-tune ▪ 提案法はRewardとRL Fine-tuneをまとめて、rewardモデルを 使わずに学習 4
提案法DPO ▪ RL Fine-tuneの損失関数の最適解 ▪ 上記最適解をrewardモデルを取り出すよう書き換える • Your Language Model
Is Secretly a Reward Model ▪ Rewardモデルを学習する損失関数に代入する • BTモデルのお陰で、Zが消える • Directに言語モデルを最適化できるようになる 5
実験 ▪ 3つのタスクで評価 • controlled sentiment generation • summarization •
single-turn dialogue ▪ 複数スケールのデータセットでRHLFと同等またはそれ以上の 性能を確認 ▪ 多数のオープンソース言語モデルに実装 6