Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Editing Factual Knowledge in Language Models (E...
Search
Koji Matsuda
September 20, 2022
Research
0
390
Editing Factual Knowledge in Language Models (EMNLP 2021)
Koji Matsuda
September 20, 2022
Tweet
Share
More Decks by Koji Matsuda
See All by Koji Matsuda
SHINRA2020-JP リーダーボードのご案内
conditional
0
220
AI王 〜クイズAI日本一決定戦〜
conditional
0
11k
論文紹介: Neural Relation Extraction for Knowledge Base Enrichment (ACL2019)
conditional
0
490
Training Classifiers with Natural Language Explanations
conditional
0
370
Other Decks in Research
See All in Research
「行ける・行けない表」による地域公共交通の性能評価
bansousha
0
130
[IBIS 2025] 深層基盤モデルのための強化学習驚きから理論にもとづく納得へ
akifumi_wachi
20
9.8k
Sequences of Logits Reveal the Low Rank Structure of Language Models
sansantech
PRO
0
100
討議:RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
0
660
A History of Approximate Nearest Neighbor Search from an Applications Perspective
matsui_528
1
220
それ、チームの改善になってますか?ー「チームとは?」から始めた組織の実験ー
hirakawa51
0
990
R&Dチームを起ち上げる
shibuiwilliam
1
200
社内データ分析AIエージェントを できるだけ使いやすくする工夫
fufufukakaka
1
1k
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
290
Collective Predictive Coding and World Models in LLMs: A System 0/1/2/3 Perspective on Hierarchical Physical AI (IEEE SII 2026 Plenary Talk)
tanichu
1
330
姫路市 -都市OSの「再実装」-
hopin
0
1.7k
Upgrading Multi-Agent Pathfinding for the Real World
kei18
0
570
Featured
See All Featured
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.6k
Collaborative Software Design: How to facilitate domain modelling decisions
baasie
0
180
How to train your dragon (web standard)
notwaldorf
97
6.6k
Have SEOs Ruined the Internet? - User Awareness of SEO in 2025
akashhashmi
0
300
Improving Core Web Vitals using Speculation Rules API
sergeychernyshev
21
1.4k
Tips & Tricks on How to Get Your First Job In Tech
honzajavorek
0
470
The untapped power of vector embeddings
frankvandijk
2
1.6k
Rails Girls Zürich Keynote
gr2m
96
14k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
122
21k
The #1 spot is gone: here's how to win anyway
tamaranovitovic
2
1k
We Are The Robots
honzajavorek
0
200
Designing for Performance
lara
611
70k
Transcript
Editing Factual Knowledge in Language Models EMNLP 2021 Nicola De
Cao, Wilker Aziz, Ivan Titov 第14回最先端NLP勉強会 2022/09/27 読み⼿: 松⽥耕史 (理研/東北⼤) 図表は元論⽂からの引⽤です。 1
どんな論⽂︖ • Language Model に内在している Factual Knowledge を編集する • どうやって︖
– パラメータ θ‘ を予測する hyper network g (KnowledgeEditor)を学習する 2
貢献 • Knowledge Editing というタスクを定義、 評価指標も提案 • KnowledgeEditor という⼿法を提案 –
パラメータを予測する NN モデル • KnowledgeEditor の有効性を2つのタス クで確認 – Fact Checking – Question Answering • KnowledgeEditor の書き換え具合を分析 3
モチベーション • LM as KB – Factual Knowledge が パラメータとして暗
にうめこまれている • しかし、間違っていたり obsolete になっ ていたりすることもあるので修正したい こともある • でも、、、コストのかかる再学習はした くない 4
実現したい3要件 • Generality: – いろんなモデルに使える • 本論⽂では BERT, BART に適⽤
• Reliability: – 余計な副作⽤をうまない、編集したい Fact 以外 に影響を与えない • Consistency: – 同じ Fact を問う質問に対して、⼀貫した答えを 返す – ⾔い換えにたいする強さ 5
6
タスク設定 • モデル f(x, θ) があって、 <x,y,a> ∈ D という
書き換えデータがある – y: model の prediction – a: alternative prediction • モデル f のアーキテクチャをたもったまま、 y ではなく a を予測するような f(x, θ‘)を⾒ つけたい – かつ、ほかの x に対する予測は変えない • x の⾔い換えに対しては a を予測するように したい 7
3要件を踏まえた評価指標 • success rate: ↑ – g がどれくらい y から
a に書き換えることがで きたか • retain accuracy: ↑ – その他の(書き換え対象外の)知識をどれくらい残 せたか • equivalence accuracy: ↑ – ⾔い換えに対してロバストに書き換えができたか • performance deterioration: ↓ – 書き換え後のモデルのパフォーマンス低下 8
Method: ハイパーネットワーク • 元のパラメータ θ を 新しいパラメータ θ‘ に書き換えるような NN
g を考える – パラメータ φ 9 x ͔Β a Λ༧ଌ͢Δ Loss Λ࠷খԽ͢Δ φ θ ͔ΒͰ͖Δ͚ͩΕͳ͍ θ’ Λ ༧ଌ͍ͨ͠ɺͱ͍͏੍ Ϛʔδϯ
制約 C について • 素朴には: Lp ノルム: • 提案⼿法: KLダイバージェンス:
10 ύϥϝʔλͷ͕ۙ ͚Εۙ͘ͳΔΑ͏ ੍ Ϟσϧͷग़ྗ͕ ۙ͘ͳΔΑ͏੍
中⾝ • θ‘を直接求めるのではなく、θ‘ = θ + Λθ とおいて Λθを求める •
<x, y, a> を連結して bi-LSTMに⼊れて得 た h を 5層のFFNN に⼊⼒、その勾配を⽤ いてパラメータ差分を計算 – 勾配のゲーティングされた和を⽤いる 11
実験 • Fact Checking – FEVER データセット [Throne et al.
2018] – BERTを⽤いたの2値分類 • Closed-book QA – zsRE データセット [Levy et al. 2017] • ⼈⼿で作った Question Paraphrase が付いてい るのが採⽤ポイント – BARTを⽤いた seq2seq 12
Alternative prediction の⽣成 • Fact Checking: – ラベルを反転させるだけ • Question
Answering: – ビームサーチの Top-1 以外の候補を使って作 る • ⾔い換えの⽣成 – 折返し翻訳を⽤いる 13 ݱ࣮ੈքͰਖ਼͍͔ࣝ͠Ͳ͏͔ؾʹͤͣ࡞͍ͬͯΔ͜ͱʹҙʂ
実験結果 - Fact Checking 14
実験結果 – Question Answering 15
結局どのモデルが総合的に 良いのか︖ • 各指標にランダムな重みを付けて線形和 にして1000回繰り返し総合点を求める – 重み: Dirichlet 分布からのサンプル •
Simplex中の1点 16
Logitの動き 17
モデルのどの部分を書き換えたか 18 εύʔεͳ Update ͕ߦΘΕ͍ͯΔ
まとめ • LMの内部に暗黙的に保存されている factual knowledge を編集するタスクを 提案 • いくつかの評価指標を定義 •
KnowledgeEditorというハイパーネット ワークを提案 19