Slide 1

Slide 1 text

Soichiro MURAKAKAMI Large Language Models Sensitivity to The Order of Options in Multiple-Choice Questions https://arxiv.org/abs/2308.11483v1

Slide 2

Slide 2 text

2 紹介する論文 ● 多肢選択問題における選択肢の提示順 に対する感度(sensitivity)を調査 ○ 著者はMegagon Labs(リクルート)

Slide 3

Slide 3 text

3 概要 ● 背景 ○ LLMはプロンプトやサンプルの提示順序に対して感度が高い( sensitive) ■ e.g., プロンプトを少し変えるだけで生成内容が変わる ● 本研究 ○ MCQ(Multiple-Choice Question;多肢選択問題)における選択肢の提示順に 対する感度(sensitivity)を調査する ● 結果 ○ 選択肢の提示順によって75%も性能差があった ○ 位置バイアスを増幅・減衰させる方法を明らかにした ○ キャリブレーションの手法を有用性を明らかにした

Slide 4

Slide 4 text

4 背景: 多肢選択問題(Multiple-Choice Question; MCQ) ● 質問に対する回答を複数選択肢の中から回答するタスク [Q] アメリカの首都はどこですか? A: ニューヨーク B: トーキョー C: ボストン D: ワシントンD.C. D: ワシントンD.C.

Slide 5

Slide 5 text

5 背景: 多肢選択問題(MCQ)におけるLLMの感度 ● 選択肢の順番を入れ替えることで、生成内容が変化する

Slide 6

Slide 6 text

6 Research Question 1. MCQにおいてLLMはどのくらい提示順に対して感度が高いか 2. 提示順に対する感度にはどのような要因があるか 3. 提示順に対するLLMの頑健性を改善させる方法

Slide 7

Slide 7 text

7 実験設定 ● タスク ○ 多肢選択問題(Multiple-Choice Question) ● モデル ○ InstructGPT ○ GPT4 ● データセット ○ 5つのMCQベンチマークデータ ○ 選定基準: ドメインの多様性, 選択肢の数(3〜5), LLMにとっての難易度

Slide 8

Slide 8 text

8 RQ1. 提示順に対する感度の調査 ● 目的 ○ Zero-shot / Few-shot設定における提示順に対する感度を調査する ● 方法 ○ 感度を定量化するために性能が最も良かった・悪かった順序の 性能差 (Sensitivity gap)を算出した

Slide 9

Slide 9 text

9 ● GPT-4がInstructGPTよりも性能差(MaxとMinの差)が小さい ○ より強力なモデルの方が性能が安定しやすいのではないか RQ1. 提示順に対する感度の調査 (zero-shot設定の結果)

Slide 10

Slide 10 text

10 ● GPT-4が精度高いベンチマークでも13.1%の性能差が生じている ○ モデルにとって(比較的)簡単なタスクでも性能差は生じる RQ1. 提示順に対する感度の調査 (zero-shot設定の結果)

Slide 11

Slide 11 text

11 ● 予測性能が低いタスクで必ずしも大きな性能差があるわけではない ○ e.g., Professional Law ● 選択肢の数やドメインと感度には明らかな相関は見受けられなかった RQ1. 提示順に対する感度の調査 (zero-shot設定の結果) → 何か他の要因があるのでは?

Slide 12

Slide 12 text

12 ● Few-shotであっても依然として性能差は大きい RQ1. 提示順に対する感度の調査 (few-shot設定の結果)

Slide 13

Slide 13 text

13 ● 予測性能が向上するにつれて性能差は小さくなっている ○ ただしサンプルを増やしても性能差が小さくなるわけではない RQ1. 提示順に対する感度の調査 (few-shot設定の結果)

Slide 14

Slide 14 text

14 RQ2. 提示順に対する感度の要因は何か ● 事例分析を通して、2つの仮説を立てた ○ (1) 予測の不確実性 ■ 最もらしい選択肢(上位の候補選択肢)の中から正解を選ぶことはより難しい ○ (2) 位置バイアス ■ 特定の位置にある選択肢を好んで選ぶ傾向がある

Slide 15

Slide 15 text

15 RQ2. 提示順に対する感度の要因は何か - (1) 予測の不確実性- ● 予測の誤り率と性能差は相関している ○ 2モデル × 5データセットで検証したので10点をプロット 性能差 予測の誤り率

Slide 16

Slide 16 text

16 RQ2. 提示順に対する感度の要因は何か - (1) 予測の不確実性- ● 可能性の高い回答候補に類似した選択肢がある時、予測がブレやすい A) overpriced B) purchase C) expensive D) park E) buying Most items in retail stores are what even when they are on sale? 可能性の高い 回答候補

Slide 17

Slide 17 text

17 RQ2. 提示順に対する感度の要因は何か - (1) 予測の不確実性- ● LLMに可能性の高い選択肢が2つ以上あるかを聞いた ○ 提示順に対して感度が高い事例の 94%について、モデルがyesと答えた A) overpriced B) purchase C) expensive D) park E) buying Most items in retail stores are what even when they are on sale? 可能性の高い 回答候補

Slide 18

Slide 18 text

18 RQ2. 提示順に対する感度の要因は何か - (2) 位置バイアス - ● 各事例をより簡易化して、選択肢の提示順が与える影響を調査したい ○ 提示順以外の他の何らかの要因を切り離すために、選択肢の数を削減 ○ LLMに選択肢をランキングさせて、可能性が高い選択肢だけ残す ランキングにより、 正解を選べているか ?

Slide 19

Slide 19 text

19 RQ2. 提示順に対する感度の要因は何か - (2) 位置バイアス - ● 可能性の高い選択肢だけに絞ってみたが、予測性能はあまり変わらない ○ 提示順に対する感度は位置バイアスが影響していることを示唆 全選択肢を残している場合と比べて、性能 は殆ど変わっていない

Slide 20

Slide 20 text

20 提示順における位置バイアスを増幅/軽減させる方法 ● 位置バイアスを増幅 / 軽減させる方法を調査 ○ 可能性の高い2つの選択肢(Top-2 choices)の配置に焦点を当てて調査 【5つの選択肢 増幅パターン】 先頭に最も可能性の高い選択肢、 末尾に次に可能性の高い選択肢

Slide 21

Slide 21 text

21 提示順における位置バイアスを増幅/軽減させる方法 位置バイアスを軽減させる 位置バイアスを増幅させる [Q] アメリカの首都はどこですか? A: ニューヨーク B: トーキョー C: ボストン D: ワシントンD.C. [Q] アメリカの首都はどこですか? A: ニューヨーク B: ワシントンD.C. C: トーキョー D: ボストン Top-2 choicesを先頭と末尾に配置 Top-2 choicesを先頭, 2番目に隣接して配置

Slide 22

Slide 22 text

22 提示順における位置バイアスを増幅/軽減させる方法 ● 位置バイアス増幅/軽減パターンの有用性を検証する ● 増幅パターンの検証方法 ○ (1) 最も性能が高くなる配置 → (2) Top-1とTop-2の配置を交換 ○ (1)と(2)の性能差を計測 ○ seino 性能差が大きくなることを確認( 20〜72%)

Slide 23

Slide 23 text

23 提示順における位置バイアスを増幅/軽減させる方法 ● 軽減パターンの検証方法 ○ (1) Top-2 choicesの位置を固定 ○ (2) 他の選択肢の位置を並び替えたときの性能を計測 ○ (3) (2)における最高/最低性能の差を算出 性能差が小さいことを確認( 0.9〜38%)

Slide 24

Slide 24 text

24 RQ3. 提示順に対するLLMの頑健性を改善させる方法 ● MCQタスクのためのキャリブレーションとして2手法を検証 ● (1) Majority vote (Bootstrapping Approach) ○ 選択肢のランダム並び替え & 予測を10回繰り返し、majorityを採用 性能改善に寄与・GPT-4のほうがより安定

Slide 25

Slide 25 text

25 RQ3. 提示順に対するLLMの頑健性を改善させる方法 ● (2) Multiple Evidence Calibration (MEC) [Wang et al. (2023)] ○ 根拠を説明をしてから予測するようにプロンプトで指示する方法 ○ 先行研究においてLLMの感度を和らげることを確認 InstructGPTで性能劣化を確認 Majority voteとは異なる傾向

Slide 26

Slide 26 text

26 RQ3. 提示順に対するLLMの頑健性を改善させる方法 ● (2) Multiple Evidence Calibration (MEC) [Wang et al. (2023)] ○ 【性能劣化の要因】モデルのconfidenceが高くないときに推論根拠を説明させるこ とで(hallucinationが発生し)不確実性を増幅させていた InstructGPTで性能劣化を確認 Majority voteとは異なる傾向

Slide 27

Slide 27 text

27 まとめ ● Research Question 1. MCQにおいてLLMはどのくらい提示順に対して感度が高いか: 〜75%の性能差 2. 提示順に対する感度にはどのような要因があるか: 不確実性, 位置バイアス 3. 提示順に対するLLMの頑健性を改善させる方法: Majority vote > MEC ● 今後の課題 ○ より効率的なキャリブレーション手法の開発 ■ Majority voteは有用だが, 何度も予測する必要があり計算量が大きい ○ 評価指標の改良 ■ 感度に頑健な評価ができるようにしたい