Slide 1

Slide 1 text

論⽂解説 InstrcutGPT: Training language models to follow instructions with human feedback Takehiro Matsuda

Slide 2

Slide 2 text

2 Amazing to ChatGPT more and more … https://twitter.com/i/status/1598994604912939009 おまえらがモメるあのお菓⼦の名前AI様が決めてくださったぞ

Slide 3

Slide 3 text

3 論⽂情報 タイトル:Training language models to follow instructions with human feedback • 論⽂: https://arxiv.org/abs/2203.02155 • コード: なし • 投稿学会: NeurIPS 2022 • 著者: Long Ouyang  JeffWu  Xu Jiang  Diogo Almeida  Carroll L. Wainwright  et al. • 所属:OpenAI 選んだ理由: • 最近話題のChatGPTの前⾝となる論⽂ • ⼤規模モデルを⼈のフィードバックで調整するというのはどう⾏うのか知りたい

Slide 4

Slide 4 text

4 compare ChatGPT and InstructGPT ChatGPT • GPT-3.5(2022年前半に学習完了)をベースにする。 • 会話(Chat)データをメインにする。 • (恐らくInstructGPTと同様の⼿法+αでチューニング している) InstructGPT • GPT-3(2020年7⽉発表)をベースにする。 • OpenAIのAPIへの⼊⼒プロンプトや雇った⼈間 のLabelersによるフィードバックを元にチュー ニング(alignment)する。 https://openai.com/blog/chatgpt/ We trained this model using Reinforcement Learning from Human Feedback (RLHF), using the same methods as InstructGPT, but with slight differences in the data collection setup. We trained an initial model using supervised fine-tuning: human AI trainers provided conversations in which they played both sides— the user and an AI assistant. We gave the trainers access to model-written suggestions to help them compose their responses.

Slide 5

Slide 5 text

5 GPT-3 Overview Embedding Layer Layer Normalization Masked Self-Attention Layer Normalization MLP Decoder N X NeurIPS2020 https://arxiv.org/abs/2005.14165 • 1750億のパラメータを持つ • 2016~2019年にCommon Crawl(インターネット上から 取得)した45TBのデータからフィルタリングした 570GB以上のコーパス(⽂章)が学習に使われている。

Slide 6

Slide 6 text

6 GPT-3の課題 GPT-3は汎⽤性が⾼く、⼈間の書いたような⽂章を⽣成でき、 ⼤規模⾔語モデルの威⼒を知らしめた。 しかし、まだ課題があった。 • ユーザーが期待するアウトプットがでないことが結構ある。 • 不正確な答えを出⼒することがある。 • 道徳的に良くない答えやバイアスがある答えを出⼒することがある。 ユーザー(⼈間)が好むアウトプットをだすようにAlignmentできないか。 損失関数でなく、⼈間のフィードバックを元にモデルを学習させる。 RLHF (Reinforcement Learning from Human Feedback)

Slide 7

Slide 7 text

7 InstructGPT Overview 3 Step 教師ありファイン チューニング Reward modelの獲得 RLHF(Reinforcement Learning from Human Feedback)

Slide 8

Slide 8 text

8 Step 1 SFT(Supervised Fine-Tuning ): Train a supervised policy Trained Labeler(⼈)が⼊⼒Promptとそれに対する望ましい出⼒⽂を作成 する。それらのデータを学習データとして、GPT-3をfine-tuningする。 このモデルをSFT(Supervised Fine-Tuning)と呼ぶ。 1万3千の学習データを作る。 • 16epochs • cosine learning rate decay • residual dropout of 0.2 学習設定 Validation datasetに対するRM score(後述)でSFT modelを選択する。

Slide 9

Slide 9 text

9 Labeler(human) information UpworkとScale AIを通して、雇⽤した40名。リサーチチームとはミー ティング、Chatなどでコミュニケーションをとり、⽬的・⽅向性の共 有。 96%はEnglish speaker • Plain: We simply ask the labelers to come up with an arbitrary task, while ensuring the tasks had sufficient diversity. • Few-shot: We ask the labelers to come up with an instruction, and multiple query/response pairs for that instruction. • User-based: We had a number of use-cases stated in waitlist applications to the OpenAI API. We asked labelers to come up with prompts corresponding to these use cases. Labelerへの指針 ⼈類の属性分布を網羅しているわけではないですと注釈しています。 (若めの理系[コンピュータ関連]の⼈材が多そうでしょうか。)

Slide 10

Slide 10 text

10 Step2 RM(Reward Modeling) : train with comparison data ⼈間の代わりにoutput(⽣成される⽂章)の良さを評価するモデル を作る。 SFT modelの最終層を除去し、スカラー値(スコア)を出す層にする。 (基本的なアーキテクチャはGPT-3[パラメータ数60億]) APIとlabelerの作った3万3千のPromptから出⼒をランク付けして 学習データとする。

Slide 11

Slide 11 text

11 RM data Promptに対して複数の出⼒⽂(K=4~9)を⽤意し、左のよう なインターフェースを⽤意し、その出⼒をLabeler(⼈間) がランキング付けしたものが学習データとなる。 Helpful : ユーザーにとって有⽤か Truthfulness: 正しいか Harmless : ⼈を傷つけるような有害な内容でないか 観点 優先度は学習データはHelpful, 評価データはTruthfulness, Harmlessを⾼くする。

Slide 12

Slide 12 text

12 RM training 良い出⼒(Rankが⾼ い) 劣る出⼒(Rankが低い) パラメータθのReward Model sigmoid K=4~9の出⼒について、ペアの組み合わせで計算 する。

Slide 13

Slide 13 text

13 Step3 RLHF(Reinforce Learning from Human Feedback) Step2で得たReward Modelを最⼤化するようにSFT Modelを強化学 習の⼿法でfine-tuningする。 PPO(Proximal Policy Optimization)を使う。 API出⼒の3万1千のデータで学習する

Slide 14

Slide 14 text

14 PPO: Reinforcement Learning 1.パラメータθのReward Model 基本はこれを最⼤化する ただし、元のSFTから⼤きく変化 しすぎて、出⼒が破綻することは 避けたい。 2. KL正則化項の導⼊ PublicなNLP benchmark datasetでの性能劣化 (alignment tax)を避ける。 この項を加えたものをPPO-ptx modelと呼ぶことに する。

Slide 15

Slide 15 text

15 Model update Step2 Reward Modelの作成(更新)とStep3 Reinforcement Learningは 繰り返し実⾏され、性能向上が図られる。 直接に絶対的なスコア(正解値)が付けづらい、様々な⾔語タスクについて ⼈間にとって望ましい回答を出⼒するモデルにしていきたという問題をう まく解けるようなサイクルにしている。

Slide 16

Slide 16 text

16 Result Human evaluations of various models on our API prompt distribution. 175BパラメータのSFT modelを基準に⼈が出⼒を好ましいと判断した割 合。 PPO-ptx, PPOでは1.3Bパラメー タモデルでも175Bパラメータ SFTを上回っている。 SFT及びRLHFが⼈間の好みの出⼒をすることに有効

Slide 17

Slide 17 text

17 output distribution

Slide 18

Slide 18 text

18 Evaluation for truthfulness using the TruthfulQA dataset (Lin et al., 2021). Gray bars: Truthfulness, Colored bars: Truthfulness and Informativeness Instruction: 確実な回答を⾔えない場合 は、”I have no comment”と返す

Slide 19

Slide 19 text

19 TruthfulQA

Slide 20

Slide 20 text

20 Evaluation for harmless using RealToxicityPrompts (Gehman et al., 2020).

Slide 21

Slide 21 text

21 RealToxicityPrompts

Slide 22

Slide 22 text

22 Winogender

Slide 23

Slide 23 text

23 Labeling RealToxicityPrompts distribution

Slide 24

Slide 24 text

24 RealToxityPrompts: Different instruction input

Slide 25

Slide 25 text

25 Prompt about Non-English, Code 英語でない⾔語やコードの 解釈もかなりできている

Slide 26

Slide 26 text

26 Mistake samples 間違った前提による Instructionがあるとそれに 沿って話をすすめる。 シンプルに答えずに、過度に直接 的な表現を避け、混乱している。 その他に複数の制限を加えた場合にも degradeが⾒られた。 e.g. “list 10 movies made in the 1930’s set in France”