Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ACL読み会2024@名大 REANO: Optimising Retrieval-Augme...
Search
Takuma Matsubara
September 29, 2024
Science
0
170
ACL読み会2024@名大 REANO: Optimising Retrieval-Augmented Reader Models through Knowledge Graph Generation
Takuma Matsubara
September 29, 2024
Tweet
Share
Other Decks in Science
See All in Science
Tensor Representations in Signal Processing and Machine Learning (Tutorial at APSIPA-ASC 2020)
yokotatsuya
0
150
01_篠原弘道_SIPガバニングボード座長_ポスコロSIPへの期待.pdf
sip3ristex
0
250
私たちのプロダクトにとってのよいテスト/good test for our products
camel_404
0
270
統計的因果探索: 背景知識とデータにより因果仮説を探索する
sshimizu2006
3
740
02_西村訓弘_プログラムディレクター_人口減少を機にひらく未来社会.pdf
sip3ristex
0
230
白金鉱業Meetup Vol.15 DMLによる条件付処置効果の推定_sotaroIZUMI_20240919
brainpadpr
2
720
Valuable Lessons Learned on Kaggle’s ARC AGI LLM Challenge (PyDataGlobal 2024)
ianozsvald
0
260
240510 COGNAC LabChat
kazh
0
190
05_山中真也_室蘭工業大学大学院工学研究科教授_だてプロの挑戦.pdf
sip3ristex
0
250
2024-06-16-pydata_london
sofievl
0
620
Explanatory material
yuki1986
0
120
Celebrate UTIG: Staff and Student Awards 2024
utig
0
610
Featured
See All Featured
Creating an realtime collaboration tool: Agile Flush - .NET Oxford
marcduiker
28
2k
Fight the Zombie Pattern Library - RWD Summit 2016
marcelosomers
233
17k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
16k
How To Stay Up To Date on Web Technology
chriscoyier
790
250k
Stop Working from a Prison Cell
hatefulcrawdad
268
20k
Why Our Code Smells
bkeepers
PRO
336
57k
VelocityConf: Rendering Performance Case Studies
addyosmani
328
24k
Product Roadmaps are Hard
iamctodd
PRO
52
11k
Code Review Best Practice
trishagee
67
18k
RailsConf 2023
tenderlove
29
1k
ピンチをチャンスに:未来をつくるプロダクトロードマップ #pmconf2020
aki_iinuma
117
51k
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
28
9.3k
Transcript
REANO: Optimising Retrieval-Augmented Reader Models through Knowledge Graph Generation Jinyuan
Fang, Zaiqiao Meng, Craig Macdonald University of Glasgow 読み⼿: 松原拓磨(豊⽥⼯⼤) 図表は論⽂,[1]より [1] Izacard et al., 2021. Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering. EACL.
導⼊ • Open Domain Question Answering (ODQA) • ⼊⼒は質問,出⼒は回答 •
近年,Retrieval-Augmented Generation(RAG)が⾼い性能を発揮 ACL2024読み会@名⼤ 2 2024/9/30 Retrieval 外部知識 質問 Reader 回答 Passages
導⼊ • Open Domain Question Answering (ODQA) • ⼊⼒は質問,出⼒は回答 •
近年,Retrieval-Augmented Generation(RAG)が⾼い性能を発揮 ACL2024読み会@名⼤ 3 2024/9/30 Retrieval 外部知識 質問 Reader 回答 Passages Readerモデルに注⽬
問題提起と提案の概要 • 従来のReaderモデルではPassage間の依存を無視 ØPassegesからKGを構築することで,マルチホップな推論が可能 2024/9/30 ACL2024読み会@名⼤ 4 Fusion-in-Decoder (FiD) PassagesからKGを補完
情報が⾜りない
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 5
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 6
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 7
KG Generator 2024/9/30 ACL2024読み会@名⼤ 8 • 既存の知識にない情報を補完したKGを作成 • Intra-context RE(⽂脈内関係抽出)
• 関係抽出モデルDocuNetによりPassagesから関係トリプルを獲得 • Inter-context RE(⽂脈間関係抽出) • Wikidataから関係トリプルを獲得 • Graph Neural Network (GNN) • Entityの埋め込みを獲得
Answer Predictor 2024/9/30 ACL2024読み会@名⼤ 9 KGの埋め込み • 質問qに関連する関係トリプルを選択し,回答
実験 2024/9/30 ACL2024読み会@名⼤ 10 Multihop QA スコアはaccuracy(完全⼀致) • 5つのデータセットで評価 •
SoTA性能 • ベースラインモデル • 抽出型Reader • DPR • ⽣成型Reader • RAG-Seq, FiDO • KG強化型Reader • KG-FiD, OREOLM, GRAPE
Passagesを減らした時の影響 2024/9/30 ACL2024読み会@名⼤ 11 • nを減らしていくとnnとn50のスコアの差が開いていく • 50 passages由来の関係トリプルが有⽤な情報を提供 •
T5に⼊⼒するPassagesの減少が可能 NQ TQA n50 nn
Case Study 2024/9/30 ACL2024読み会@名⼤ 12 • 既存の知識にない関係トリプルを活⽤できている
まとめ • 既存の知識にない情報を獲得し,Passage間の依存を捉える 検索拡張Readerモデル(REANO)を提案 • Passagesから抽出した情報でKnowledge Graph (KG)を補完 • ベースラインよりも⾼い性能を発揮
• 様々な結果の解析 2024/9/30 ACL2024読み会@名⼤ 13
補⾜:KG Generator 2024/9/30 ACL2024読み会@名⼤ 14 パッセージのentityペアの埋め込み トリプルの関係の埋め込み entityの埋め込み 近傍ノードを考慮した埋め込み qに対するアテンション
• 質問に関連する関係トリプルの埋め込みを獲得 • REM (Relation Embedding Module): REのノイズを緩和 • GNN (Graph Neural Network): 質問qに関連するentityの埋め込み獲得
補⾜:学習の⼯夫 • KG generator (DocuNet)の学習 • REBELデータセットで遠距離教師あり学習 • Answer Predictor
(GNNとT5) の学習 • cq :全entityについて質問に関連する確率の分布 • cq *: 質問から答えのentityまでのパスにあるentityは関連する 2024/9/30 ACL2024読み会@名⼤ 15
補⾜:Ablation Study • w/o inter-context triples • Passage間の関係なし • w/o
intra-context triples • DocuNetなし • w/o REM • REのノイズを緩和しない • w/o GNN • マルチホップが⾒られない 2024/9/30 ACL2024読み会@名⼤ 16 • GNNの下り幅が⼤きい