$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ACL読み会2024@名大 REANO: Optimising Retrieval-Augme...
Search
Takuma Matsubara
September 29, 2024
Science
0
250
ACL読み会2024@名大 REANO: Optimising Retrieval-Augmented Reader Models through Knowledge Graph Generation
Takuma Matsubara
September 29, 2024
Tweet
Share
Other Decks in Science
See All in Science
風の力で振れ幅が大きくなる振り子!? 〜タコマナローズ橋はなぜ落ちたのか〜
syotasasaki593876
1
170
ド文系だった私が、 KaggleのNCAAコンペでソロ金取れるまで
wakamatsu_takumu
2
1.7k
タンパク質間相互作⽤を利⽤した⼈⼯知能による新しい薬剤遺伝⼦-疾患相互作⽤の同定
tagtag
0
130
Accelerating operator Sinkhorn iteration with overrelaxation
tasusu
0
140
知能とはなにかーヒトとAIのあいだー
tagtag
0
130
(メタ)科学コミュニケーターからみたAI for Scienceの同床異夢
rmaruy
0
150
AI(人工知能)の過去・現在・未来 —AIは人間を超えるのか—
tagtag
0
130
LayerXにおける業務の完全自動運転化に向けたAI技術活用事例 / layerx-ai-jsai2025
shimacos
2
21k
baseballrによるMLBデータの抽出と階層ベイズモデルによる打率の推定 / TokyoR118
dropout009
2
640
2025-06-11-ai_belgium
sofievl
1
210
データマイニング - ノードの中心性
trycycle
PRO
0
320
【RSJ2025】PAMIQ Core: リアルタイム継続学習のための⾮同期推論・学習フレームワーク
gesonanko
0
460
Featured
See All Featured
The AI Search Optimization Roadmap by Aleyda Solis
aleyda
1
5k
Done Done
chrislema
186
16k
Save Time (by Creating Custom Rails Generators)
garrettdimon
PRO
32
1.8k
The B2B funnel & how to create a winning content strategy
katarinadahlin
PRO
0
180
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
254
22k
Building the Perfect Custom Keyboard
takai
1
660
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
37
2.7k
Measuring Dark Social's Impact On Conversion and Attribution
stephenakadiri
0
91
Mozcon NYC 2025: Stop Losing SEO Traffic
samtorres
0
81
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
66
SEO in 2025: How to Prepare for the Future of Search
ipullrank
3
3.3k
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
Transcript
REANO: Optimising Retrieval-Augmented Reader Models through Knowledge Graph Generation Jinyuan
Fang, Zaiqiao Meng, Craig Macdonald University of Glasgow 読み⼿: 松原拓磨(豊⽥⼯⼤) 図表は論⽂,[1]より [1] Izacard et al., 2021. Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering. EACL.
導⼊ • Open Domain Question Answering (ODQA) • ⼊⼒は質問,出⼒は回答 •
近年,Retrieval-Augmented Generation(RAG)が⾼い性能を発揮 ACL2024読み会@名⼤ 2 2024/9/30 Retrieval 外部知識 質問 Reader 回答 Passages
導⼊ • Open Domain Question Answering (ODQA) • ⼊⼒は質問,出⼒は回答 •
近年,Retrieval-Augmented Generation(RAG)が⾼い性能を発揮 ACL2024読み会@名⼤ 3 2024/9/30 Retrieval 外部知識 質問 Reader 回答 Passages Readerモデルに注⽬
問題提起と提案の概要 • 従来のReaderモデルではPassage間の依存を無視 ØPassegesからKGを構築することで,マルチホップな推論が可能 2024/9/30 ACL2024読み会@名⼤ 4 Fusion-in-Decoder (FiD) PassagesからKGを補完
情報が⾜りない
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 5
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 6
提案⼿法 Passageから補完したKGを活⽤したReaderモデルを提案 • KG Generator : 既存の知識にない情報を補完したKGを作成 • Answer Predictor
: 質問に関連するトリプルを選択し,回答 2024/9/30 ACL2024読み会@名⼤ 7
KG Generator 2024/9/30 ACL2024読み会@名⼤ 8 • 既存の知識にない情報を補完したKGを作成 • Intra-context RE(⽂脈内関係抽出)
• 関係抽出モデルDocuNetによりPassagesから関係トリプルを獲得 • Inter-context RE(⽂脈間関係抽出) • Wikidataから関係トリプルを獲得 • Graph Neural Network (GNN) • Entityの埋め込みを獲得
Answer Predictor 2024/9/30 ACL2024読み会@名⼤ 9 KGの埋め込み • 質問qに関連する関係トリプルを選択し,回答
実験 2024/9/30 ACL2024読み会@名⼤ 10 Multihop QA スコアはaccuracy(完全⼀致) • 5つのデータセットで評価 •
SoTA性能 • ベースラインモデル • 抽出型Reader • DPR • ⽣成型Reader • RAG-Seq, FiDO • KG強化型Reader • KG-FiD, OREOLM, GRAPE
Passagesを減らした時の影響 2024/9/30 ACL2024読み会@名⼤ 11 • nを減らしていくとnnとn50のスコアの差が開いていく • 50 passages由来の関係トリプルが有⽤な情報を提供 •
T5に⼊⼒するPassagesの減少が可能 NQ TQA n50 nn
Case Study 2024/9/30 ACL2024読み会@名⼤ 12 • 既存の知識にない関係トリプルを活⽤できている
まとめ • 既存の知識にない情報を獲得し,Passage間の依存を捉える 検索拡張Readerモデル(REANO)を提案 • Passagesから抽出した情報でKnowledge Graph (KG)を補完 • ベースラインよりも⾼い性能を発揮
• 様々な結果の解析 2024/9/30 ACL2024読み会@名⼤ 13
補⾜:KG Generator 2024/9/30 ACL2024読み会@名⼤ 14 パッセージのentityペアの埋め込み トリプルの関係の埋め込み entityの埋め込み 近傍ノードを考慮した埋め込み qに対するアテンション
• 質問に関連する関係トリプルの埋め込みを獲得 • REM (Relation Embedding Module): REのノイズを緩和 • GNN (Graph Neural Network): 質問qに関連するentityの埋め込み獲得
補⾜:学習の⼯夫 • KG generator (DocuNet)の学習 • REBELデータセットで遠距離教師あり学習 • Answer Predictor
(GNNとT5) の学習 • cq :全entityについて質問に関連する確率の分布 • cq *: 質問から答えのentityまでのパスにあるentityは関連する 2024/9/30 ACL2024読み会@名⼤ 15
補⾜:Ablation Study • w/o inter-context triples • Passage間の関係なし • w/o
intra-context triples • DocuNetなし • w/o REM • REのノイズを緩和しない • w/o GNN • マルチホップが⾒られない 2024/9/30 ACL2024読み会@名⼤ 16 • GNNの下り幅が⼤きい