Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[Paper Introduction]Large Language Models Are N...

Avatar for Higuchi Kenji Higuchi Kenji
June 17, 2025
79

[Paper Introduction]Large Language Models Are No Longer Shallow Parsers

2025/06/17
論文紹介@谷中ラボ
https://sites.google.com/view/tanichu-lab-ku/

Avatar for Higuchi Kenji

Higuchi Kenji

June 17, 2025
Tweet

Transcript

  1. 1 Large Language Models Are No Longer Shallow Parsers Symbol

    Emergence System Lab. Journal Clab Calendar 17 June 2025 Kenji Higuchi 1
  2. Paper Information • タイトル • Large Language Models Are No

    Longer Shallow Parsers • 著者 • Yuanhe Tian, Fei Xia, Yan Song • Publisher, years • Association for Computational Linguistics. 2024 • リンク • Large Language Models Are No Longer Shallow Parsers - ACL Anthology 2
  3. 背景 • 大規模言語モデル(LLM)は,自然言語処理の高レベルタスクで有効 • 翻訳,質問応答,対話生成など • 基礎的な言語能力についての評価は不十分 • 特に構文解析タスクに有効でない •

    深い階層に対応できない • そもそも構文解析は必要? ➢命令の理解や論理的説明に必要不可欠 ➢既存のLLMの性能を検証 • 対象:GPT-3.5, GPT-4, LLaMA-7B, LLaMA-65B ➢性能向上のための提案手法 4 人手より 浅い階層に (GPT-4)
  4. LLMの構文解析能力の分析 • LLMと既存手法を比較した表 • 各マーク • *:BERTなどをファインチューニング • †:5ショット設定の既存の手法[Bai 23]

    • 無印:[Bai 23]を参考に著者が設定 • データセット • PTB:英語のニュース文 • CTB5:中国語の構文解析用データセット • Genia:医学・生物が文献.構文が複雑 • 能力の分析 • LLMの性能が大きく負けている • LLMの中ではGPT-4が高性能 • LLaMAは有効な構文木を作れていない 5 [Bai 23]Xuefeng Bai, Jialong Wu, Yulong Chen, Zhongqing Wang, and Yue Zhang. 2023. Constituency Parsing using LLMs. arXiv preprint arXiv:2310.19462.
  5. 提案手法 ステップ1ーチャンクの摘出 • LLMは,複雑なタスクを分解する ことで性能が向上することがある ➢長い文を分割することで 精度が向上するのでは? • チャンクを摘出しその精度を検証 •

    チャンク:意味のある構文単位(句) • 文中のすべてのチャンクを識別する ➢全文の解析と比較して優れた性能 ➢GPT-4はかなりの性能を持つ 7
  6. 提案手法 ステップ3-プロンプトの設計 • チャンクの使いかた • チャンク情報の利用を強制させず、参照を促すにとどめる • [Yan 22]の研究を参考 •

    Chain-of-Thought(CoT)を使用 • CoT:複雑なタスクをステップごとに思考させるプログラム設計手法 • 構文木を人間が構築するように逐次合成していく過程を模倣 9 [Yan 22]Yan Song. 2022. Chinese Couplet Generation with Syn tactic Information. In Proceedings of the 29th Inter national Conference on Computational Linguistics, pages 6436–6446, Gyeongju, Republic of Korea.
  7. 結果 • 提案手法による全文の構文解析結果 • 提案手法を使用することにより性能向上 • チャンクを自身で解析してから 全文を解析することの有用性を示す • CoTを使用することで性能向上

    • 人間を模倣した構築過程の有用性を示す • 浅い解析木を作りにくくなった • 文の深さが増えても解析できている ➢LLMでも深い解析ができる ➢ほかの言語タスク (意味解析など)にも応用可能 ➢ファインチューニングした モデルには及ばない課題も 10 再掲(p6) 改善前の結果(再掲,p5) 提案手法の結果(再掲,p5)