Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Direct Preference Optimization
Search
Henry Cui
February 24, 2024
Science
0
440
Direct Preference Optimization
Henry Cui
February 24, 2024
Tweet
Share
More Decks by Henry Cui
See All by Henry Cui
プロダクション言語モデルの情報を盗む攻撃 / Stealing Part of a Production Language Model
zchenry
1
240
Diffusion Model with Perceptual Loss
zchenry
0
490
レンズの下のLLM / LLM under the Lens
zchenry
0
210
Go with the Prompt Flow
zchenry
0
200
Mojo Dojo
zchenry
0
250
ことのはの力で画像の異常検知 / Anomaly Detection by Language
zchenry
0
670
驚愕の事実!LangChainが抱える問題 / Problems of LangChain
zchenry
0
300
MLOps初心者がMLflowを触る / MLflow Brief Introduction
zchenry
0
180
{{guidance}}のガイダンス / Guidance of guidance
zchenry
0
190
Other Decks in Science
See All in Science
SHINOMIYA Nariyoshi
genomethica
0
110
データマイニング - グラフ構造の諸指標
trycycle
PRO
0
280
フィードフォワードニューラルネットワークを用いた記号入出力制御系に対する制御器設計 / Controller Design for Augmented Systems with Symbolic Inputs and Outputs Using Feedforward Neural Network
konakalab
0
110
Performance Evaluation and Ranking of Drivers in Multiple Motorsports Using Massey’s Method
konakalab
0
160
因果推論と機械学習
sshimizu2006
1
960
高校生就活へのDA導入の提案
shunyanoda
1
6.3k
20260220 OpenIDファウンデーション・ジャパン ご紹介 / 20260220 OpenID Foundation Japan Intro
oidfj
0
260
Cross-Media Technologies, Information Science and Human-Information Interaction
signer
PRO
3
32k
DMMにおけるABテスト検証設計の工夫
xc6da
1
1.6k
データマイニング - グラフデータと経路
trycycle
PRO
2
470
(2025) Balade en cyclotomie
mansuy
0
490
主成分分析に基づく教師なし特徴抽出法を用いたコラーゲン-グリコサミノグリカンメッシュの遺伝子発現への影響
tagtag
PRO
0
220
Featured
See All Featured
The Illustrated Children's Guide to Kubernetes
chrisshort
51
52k
SEO for Brand Visibility & Recognition
aleyda
0
4.4k
Site-Speed That Sticks
csswizardry
13
1.1k
BBQ
matthewcrist
89
10k
JAMstack: Web Apps at Ludicrous Speed - All Things Open 2022
reverentgeek
1
400
Facilitating Awesome Meetings
lara
57
6.8k
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Raft: Consensus for Rubyists
vanstee
141
7.4k
ラッコキーワード サービス紹介資料
rakko
1
2.7M
Are puppies a ranking factor?
jonoalderson
1
3.1k
Git: the NoSQL Database
bkeepers
PRO
432
67k
Heart Work Chapter 1 - Part 1
lfama
PRO
5
35k
Transcript
Direct Preference Optimization 機械学習の社会実装勉強会第32回 Henry 2024/2/24
内容 ▪ NeurIPS 2023 Outstanding Main Track Runner-Ups 受賞 ▪
著者に有名な先生が多い 2
モチベーション ▪ 大量テキストで学習した言語モデルを望ましい挙動に微調整 する必要(Alignment) • 大量コードの平均能力でなく、少量存在の優れたコードに • 一般大衆のもつ誤認識でなく、それを修正すべき ▪ Alignmentを達成するために、現状2段階の複雑な強化学習
手法を使うので、それと理論上等価なシンプルな手法を提案 3
RLHFアプローチの3ステップ ▪ SFT: Supervised fine-tuning ▪ Rewardモデルを学習する • RewardモデルがBradley-Terry (BT)に従う想定
• BTの仮定で導出する損失関数 ▪ RL Fine-tune • Rewardモデルを使って、下記損失関数でfine-tune ▪ 提案法はRewardとRL Fine-tuneをまとめて、rewardモデルを 使わずに学習 4
提案法DPO ▪ RL Fine-tuneの損失関数の最適解 ▪ 上記最適解をrewardモデルを取り出すよう書き換える • Your Language Model
Is Secretly a Reward Model ▪ Rewardモデルを学習する損失関数に代入する • BTモデルのお陰で、Zが消える • Directに言語モデルを最適化できるようになる 5
実験 ▪ 3つのタスクで評価 • controlled sentiment generation • summarization •
single-turn dialogue ▪ 複数スケールのデータセットでRHLFと同等またはそれ以上の 性能を確認 ▪ 多数のオープンソース言語モデルに実装 6