Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
人工演繹推論コーパスによる学習は言語モデルをどのように強化するか?
Search
もりし
August 22, 2023
0
96
人工演繹推論コーパスによる学習は言語モデルをどのように強化するか?
人工知能学会2023での発表スライド。
予稿はこちら: 人工演繹推論コーパスによる学習は言語モデルをどのように強化するか?
もりし
August 22, 2023
Tweet
Share
More Decks by もりし
See All by もりし
形式論理学に基づく演繹コーパスによる 言語モデルに対する演繹推論能力の付与
morishtr
0
140
人工知能学会2023ランチョンセミナー「アンサンブル学習における基礎理論の構築」
morishtr
5
1.6k
Featured
See All Featured
Product Roadmaps are Hard
iamctodd
PRO
49
11k
Automating Front-end Workflow
addyosmani
1366
200k
[RailsConf 2023] Rails as a piece of cake
palkan
52
4.9k
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
6
420
Unsuck your backbone
ammeep
668
57k
What's new in Ruby 2.0
geeforr
343
31k
A Tale of Four Properties
chriscoyier
156
23k
Faster Mobile Websites
deanohume
305
30k
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
226
22k
Typedesign – Prime Four
hannesfritz
40
2.4k
Rebuilding a faster, lazier Slack
samanthasiow
79
8.7k
GraphQLとの向き合い方2022年版
quramy
43
13k
Transcript
人工演繹推論コーパスによる学習は 言語モデルをどのように強化するか? 森下皓文 日立製作所 先端AIイノベーションセンタ メディア知能処理研究部
© Hitachi, Ltd. 2023. All rights reserved. 要約 1. 要約
2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 3 要約
言語モデル(LM)に演繹推論を学習させるため, 演繹推論コーパスを自動生成するフレームワークを提案. 実験により: 1. LM(GPT-4/T5)の演繹推論能力を評価. 2. 提案コーパスでの学習による演繹推論能力の向上を確認. 3. LMの演繹推論能力で不十分な側面を解析 → 方向性を議論 コーパス・モデル・コードを公開 https://github.com/hitachi-nlp/FLD
© Hitachi, Ltd. 2023. All rights reserved. 背景 1. 要約
2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 5 背景
豊富な知識と高い推論能力を備えた=考える機械[1]の実現は大きなゴール 言語モデル(LM)は知識は豊富 → 論理推論は苦手? 例: LMは否定(negation)が苦手, Can Large Language Models Reason? https://aiguide.substack.com/p/can-large-language-models-reason 論理推論をどのように学習させればよいか? 「豊富な知識」はテキストコーパス中の大量の実例から学習.
© Hitachi, Ltd. 2023. All rights reserved. 6 背景
豊富な知識と高い推論能力を備えた=考える機械[1]の実現は大きなゴール 言語モデル(LM)は知識は豊富 → 論理推論は苦手? 例: LMは否定(negation)が苦手, Can Large Language Models Reason? https://aiguide.substack.com/p/can-large-language-models-reason 論理推論をどのように学習させればよいか? 「豊富な知識」はテキストコーパス中の大量の実例から学習. 論理推論の実例を大量に学習させればよい?
© Hitachi, Ltd. 2023. All rights reserved. 前提知識① - 演繹推論とは?-
1. 要約 2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 8 妥当な推論ステップ -
その1 論理的に出てくる
© Hitachi, Ltd. 2023. All rights reserved. 9 妥当な推論ステップ -
その2 論理的に出てくる
© Hitachi, Ltd. 2023. All rights reserved. 10 演繹推論のステップとは何か?
演繹推論ステップ=論証 は記号で表現可能 論証の妥当性は,前提や結論の内容の妥当性には依存しない. もし仮に前提が成立していれば,結論が論理的に出てくるかのみで判定される.
© Hitachi, Ltd. 2023. All rights reserved. 11 論理 ≠
知識 地球には四季が 埋めて!
© Hitachi, Ltd. 2023. All rights reserved. 12 論理 ≠
知識 地球には四季が ある 我々の世界で成り立っていると知っているから埋まる
© Hitachi, Ltd. 2023. All rights reserved. 13 論理 ≠
知識 地球には四季が ある 知識 : 前提や結論の内容自体の妥当性=この世界で成り立っているか(真=1か偽=0か) →NLPにおける世界知識・常識知識 我々の世界で成り立っていると知っているから埋まる
© Hitachi, Ltd. 2023. All rights reserved. 14 論理 ≠
知識 地球には四季が ある 知識 : 前提や結論の内容自体の妥当性=この世界で成り立っているか(真=1か偽=0か) 論理 : もし仮に前提が成立したら結論が論理的に出てくるか →形式論理の統語論 →NLPにおける世界知識・常識知識 我々の世界で成り立っていると知っているから埋まる
© Hitachi, Ltd. 2023. All rights reserved. 15 論理 ≠
知識 地球には四季が ある 我々の世界で成り立っていると知っているから埋まる 知識と論理は別モノ! 知識 : 前提や結論の内容自体の妥当性=この世界で成り立っているか(真=1か偽=0か) 論理 : もし仮に前提が成立したら結論が論理的に出てくるか →形式論理の統語論 →NLPにおける世界知識・常識知識
© Hitachi, Ltd. 2023. All rights reserved. 16 背景
豊富な知識と高い推論能力を備えた=考える機械[1]の実現は大きなゴール 言語モデル(LM)は知識は豊富 → 論理推論は苦手? 例: LMは否定(negation)が苦手等[6-8]. Can Large Language Models Reason? https://aiguide.substack.com/p/can-large-language-models-reason 論理推論をどのように学習させる? 1. 豊富な知識 = テキストコーパス中の大量の実例から学習. 2. 論理推論能力 = 大量の論理推論の実例から学習させればよい? 非自明な問い
© Hitachi, Ltd. 2023. All rights reserved. 前提知識② - 一階述語論理の完全性
- 1. 要約 2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 18 様々な論証 前提・結論に現れうる論理式は多様なパターン
→ 論証は多様なパターンが考えられる (三段論法)
© Hitachi, Ltd. 2023. All rights reserved. 19 多段演繹推論 複雑な論証は,より“原子的な”な論証で導出できる?
© Hitachi, Ltd. 2023. All rights reserved. 20 完全性 一階述語論理の完全性定理
[Gödel, 1929] 1. 全ての妥当な(*)論証は,公理系による多段推論よって導出できる. 2. 公理系による多段推論によって導出された論証は全て妥当である. (*)..前提が全て真 (=1) ならば結論も必ず真 (=1) となるような論証 のこと 原子的な論証の集合 (次ページ)
© Hitachi, Ltd. 2023. All rights reserved. 21 公理系に含まれる論証
© Hitachi, Ltd. 2023. All rights reserved. 22 言語モデルに何を学ばせる?
© Hitachi, Ltd. 2023. All rights reserved. 23 言語モデルに何を学ばせる? 問い:
論証は多様なパターン.言語モデルにどれを学ばせようか?
© Hitachi, Ltd. 2023. All rights reserved. 24 言語モデルに何を学ばせる? [完全性]
公理系による多段推論は任意の論証を表すことができる 問い: 論証は多様なパターン.言語モデルにどれを学ばせようか?
© Hitachi, Ltd. 2023. All rights reserved. 25 言語モデルに何を学ばせる? 公理系による多段推論を学ばせたい...!
[完全性] 公理系による多段推論は任意の論証を表すことができる 問い: 論証は多様なパターン.言語モデルにどれを学ばせようか?
© Hitachi, Ltd. 2023. All rights reserved. 26 言語モデルに何を学ばせる? 公理系による多段推論を学ばせたい...!
[完全性] 公理系による多段推論は任意の論証を表すことができる 「公理系による多段推論の実例」を大量に用意して 学習させればよい!! 問い: 論証は多様なパターン.言語モデルにどれを学ばせようか?
© Hitachi, Ltd. 2023. All rights reserved. 公理系による多段推論実例の 自動生成フレームワーク 1.
要約 2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 28 Formal Logic
Deduction FLD (Formal Logic Deduction) 公理系により多様な多段推論の実例を生成 様々な設定の実例を生成できる → 解析研究ができる(後述)
© Hitachi, Ltd. 2023. All rights reserved. 29 多段推論の実例とは? 実例データ
facts
© Hitachi, Ltd. 2023. All rights reserved. 30 FLDで生成された演繹推論実例 Prompt
Output facts hypothesis proof answer
© Hitachi, Ltd. 2023. All rights reserved. 31 (RuleTaker)
Transformers as soft reasoners over language 論証 = 含意 Critical thinking for language models 論証 =クリティカルシンキング 先行研究 - 演繹推論実例の生成 (Peter Clark, Oyvind Tafjord, and Kyle Richardson) (Gregor Betz, Christian Voigt, and Kyle Richardson) 𝑮𝑮(𝒂𝒂) ∀𝒙𝒙 𝑭𝑭 𝒙𝒙 → 𝑮𝑮(𝒙𝒙) 𝑭𝑭(𝒂𝒂) 𝓕𝓕 → 𝓖𝓖 ¬𝓖𝓖 → ¬𝓕𝓕 論証が恣意的(=公理系ではないので完全性を持たず) → 多様な演繹推論実例を生成できない → 言語モデルに多様な演繹推論を教えられない 実例に関する様々な条件を設定できない → 解析研究ができない. 問題点
© Hitachi, Ltd. 2023. All rights reserved. 実験 1. 要約
2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 実験1: 言語モデルは演繹推論を解けるか?
© Hitachi, Ltd. 2023. All rights reserved. 34 言語モデルの演繹推論能力を評価 FLD
: 証明ステップ数=1~3 FLD★ : 証明ステップ数=1~8 言語モデル(T5/GPT-4)の,提案コーパスFLDでの性能(証明正解率[21])を評価 小さい言語モデル(0.2Bパラメタ). fine-tuningした後に評価. (30kデータ, 20k ステップ). 例のでかいやつ(105B パラメタ?) 20-shotで評価. 言語モデルの演繹推論能力はまだ十分ではない.
© Hitachi, Ltd. 2023. All rights reserved. 実験2: 演繹推論コーパスでの学習は有用か?
© Hitachi, Ltd. 2023. All rights reserved. 36 演繹コーパスでの学習の効果 ベンチマーク=
自動生成された演繹コーパス 学習コーパス ベンチ マーク ベンチマーク=人手作製コーパス (EntailmentBank[14]) 学習 コーパス 提案コーパスでの学習は演繹推論能力の向上に繋がる 言語モデルT5(演繹コーパスでの学習あり/なし)を 論理推論ベンチマークで評価 ベンチマーク 学習無し 先行コーパスで学習 提案コーパスで学習
© Hitachi, Ltd. 2023. All rights reserved. 実験3: 言語モデルの演繹推論能力で 不十分な側面は何か?
© Hitachi, Ltd. 2023. All rights reserved. 38 不十分な側面は何? 性能×→LMは元々「複雑な論理式を理解する能力」を持たず
言語モデルに足りない側面が明らかになる → 今後の方向性を議論できる 作製したコーパス群 学習コーパス 評価 コーパス 「論理式の複雑さ」に関する調査 問題設定が異なる様々なコーパスを作製 → 言語モデルT5の転移性能を測り「差分を埋められるか」を特定 「言語的多様性」に関する調査 性能◦→LMは元々「多様な言語表現」を理解する能力を保持 学習コーパス 評価 コーパス 転移評価 単純: 𝐴𝐴 → 𝐵𝐵 複雑: ¬ 𝐴𝐴 ∧ ¬𝐵𝐵 → ¬¬𝐶𝐶 単純 複雑
© Hitachi, Ltd. 2023. All rights reserved. 39 各側面における結果と,今後の方向性 側面
側面の説明 言語モデルのみで十分か? 今後の方向性 複雑な論理式の理解 例: 単純: 𝐴𝐴 → 𝐵𝐵 複雑: ¬ 𝐴𝐴 ∧ ¬𝐵𝐵 → ¬¬𝐶𝐶 × (事前学習コーパスに明示的な教示なし) • 演繹コーパスにもっと複雑な 論理式を含める. • 学習論的アプローチ[Pröllochs 19, Hosseini 21] 多様な言語表現の理解 例: “A cause B” ≓ “A leads to B” ◦ (不要) ステップ数が多い演繹の実行 1 ~ 8 ステップを試行 × (FLDでの学習後でも4ステップ以上は解 けない.公理系の組み合わせによる証明 木の空間は膨大.探索できてない.) • 証明木の空間上での,賢い探 索方法を取り入れる. ノイズ事実への頑健性 事実群(facts)に最大20個のノ イズ事実を混入 × (事前学習コーパスにはノイズ事実は含 まれず) • より実際的なシーンを模擬し たノイズ事実を使う(e.g., 検索に よって集めたノイズ混じりの事実群を 使う) 演繹規則(論証)の知識 公理系や三段論法等,無限個. × • FLDで様々な論証を原理的に 学習可(完全性の恩恵). 詳細は予稿を参考のこと
© Hitachi, Ltd. 2023. All rights reserved. まとめ 1. 要約
2. 背景 3. 前提知識① - 演繹推論とは? 4. 前提知識② - 完全性定理 5. 公理系による多段推論事例の 自動生成フレームワーク 6. 実験 7. まとめ
© Hitachi, Ltd. 2023. All rights reserved. 41 まとめ ご静聴ありがとうございました.
言語モデルに演繹推論を学習させるため, 演繹推論コーパスを自動生成するフレームワークを提案. 1. 一階述語論理の完全性に基づき,多様な演繹推論実例を生成. 2. 解析実験のため様々な条件でコーパスを生成可能. 実験により: 1. LM(GPT-4/T5)の演繹推論能力を評価. 2. 提案コーパスでの学習による演繹推論能力の向上を確認. 3. LMの演繹推論能力で不十分な側面を解析 → 方向性を議論 コーパス・モデル・コードを公開 https://github.com/hitachi-nlp/FLD