Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
NERのための転移学習
Search
altescy
September 18, 2019
Research
2
1.3k
NERのための転移学習
altescy
September 18, 2019
Tweet
Share
Other Decks in Research
See All in Research
Dwangoでの漫画データ活用〜漫画理解と動画作成〜@コミック工学シンポジウム2025
kzmssk
0
160
「行ける・行けない表」による地域公共交通の性能評価
bansousha
0
120
Φ-Sat-2のAutoEncoderによる情報圧縮系論文
satai
3
140
Satellites Reveal Mobility: A Commuting Origin-destination Flow Generator for Global Cities
satai
3
640
競合や要望に流されない─B2B SaaSでミニマム要件を決めるリアルな取り組み / Don't be swayed by competitors or requests - A real effort to determine minimum requirements for B2B SaaS
kaminashi
0
1k
ペットのかわいい瞬間を撮影する オートシャッターAIアプリへの スマートラベリングの適用
mssmkmr
0
380
【NICOGRAPH2025】Photographic Conviviality: ボディペイント・ワークショップによる 同時的かつ共生的な写真体験
toremolo72
0
200
Grounding Text Complexity Control in Defined Linguistic Difficulty [Keynote@*SEM2025]
yukiar
0
130
COFFEE-Japan PROJECT Impact Report(海ノ向こうコーヒー)
ontheslope
0
990
AI Agentの精度改善に見るML開発との共通点 / commonalities in accuracy improvements in agentic era
shimacos
6
1.4k
SREのためのテレメトリー技術の探究 / Telemetry for SRE
yuukit
13
3.3k
2026.01ウェビナー資料
elith
0
310
Featured
See All Featured
How to Think Like a Performance Engineer
csswizardry
28
2.5k
Rebuilding a faster, lazier Slack
samanthasiow
85
9.4k
How To Speak Unicorn (iThemes Webinar)
marktimemedia
1
410
Lessons Learnt from Crawling 1000+ Websites
charlesmeaden
PRO
1
1.1k
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
71
世界の人気アプリ100個を分析して見えたペイウォール設計の心得
akihiro_kokubo
PRO
67
37k
Darren the Foodie - Storyboard
khoart
PRO
3
2.9k
A Tale of Four Properties
chriscoyier
163
24k
Avoiding the “Bad Training, Faster” Trap in the Age of AI
tmiket
0
100
Odyssey Design
rkendrick25
PRO
2
550
Paper Plane
katiecoart
PRO
0
48k
Leveraging Curiosity to Care for An Aging Population
cassininazir
1
190
Transcript
NERのための転移学習 山口泰弘
自己紹介 山口 泰弘 / Yasuhiro Yamaguchi ID: @altescy 奈良先端科学技術大学院大学 修士1年
転移学習 • あるドメインのデータや学習済みモデルを使って他の ドメインのモデルを学習する手法 • 自然言語処理の分野における転移学習 ◦ Cross-Domain 例: ニュース →
SNS ◦ Cross-Lingual 例: 日本語 → 英語 • データの多いドメインから得られる知識を活用したい domain-specificなNERを行いたいと いう要求は現実問題として多そう
アプローチ 1. 単語翻訳 (cross-lingual) 2. Fine-Tuning 3. 潜在表現の共有
アプローチ: 単語翻訳 NER MODEL 翻訳 ソース言語 ターゲット言語 ラベル
アプローチ: 単語翻訳 • Cheap Translation for Cross-Lingual Named Entity Recognition
[Mayhew+, 2017] ◦ 単語翻訳によるCross-Lingual NERの提案 • Neural Cross-Lingual NER with Minimal Resources [Xie+, 2018] ◦ 単語埋め込みのアライメントによる単語翻訳 ◦ self-attentionによる語順の違いの吸収
アプローチ: Fine-Tuning NER MODEL NER MODEL ソースのデータで学習 ターゲットのデータで再学習
アプローチ: Fine-Tuning • How Transferable are Neural Networks in NLP
Applications? [Mou+, 2016] ◦ Fine-TuningによるNERタスクの転移学習の可能性を 考察 • Neural Adaptation Layers for Cross-domain Named Entity Recognition [Lin+, 2018] ◦ Fine-Tuningと,固定の学習済みエンコーダの前後に レイヤーを追加する手法の比較
アプローチ: 潜在表現の共有 NER MODEL 共有エンコーダ ソース ターゲット
アプローチ: 潜在表現の共有 • Adversarial Transfer Learning for Chinese Named Entity
Recognition with Self-Attention Mechanism [Cao+, 2018] ◦ 中国語における,単語分割→NERの転移学習 • Dual Adversarial Neural Transfer for Low-Resource Named Entity Recognition [Zhou1+, 2019] ◦ 高リソース→低リソースの転移学習 ◦ 今回はこれにフォーカスします
Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] 概要
• 高リソース→低リソースの転移学習 • 潜在表現を共有するモデル 提案手法 • リソース同士のデータの不均衡を考慮する (データ規模・予測の難しさ) • リソース特有の特徴を考慮する • 敵対訓練による正則化を行う
Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] DATNet-P
ソース / 共有 / ターゲット DATNet-F すべて共有
Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] Discriminator
• 共有の潜在表現がどちらのリソースのものか判別 • エンコーダは判別器が誤るように学習 • 不均衡を考慮した誤差関数 (いわゆる Focal-Loss) データ規模の不均衡を調整 予測の難しい例を学習 Adversarial Training • 単語埋め込みに敵対的摂動を与えながら学習
Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] POSなど追加の特徴量を使わず既存手法と同程度以上
cross-lingual cross-domain
Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] Cross-Lingual
(英→西) • ターゲットのデータ数が少ないときはDATNet-F, 多いと きはDATNet-Pがよい Cross-Domain (ニュース→SNS) • データ規模によらずDATNet-Fがよい
サーベイの所感 • ソースとターゲットで共有する情報と,ドメイン・ 言語特有の情報の処理を分けて学習する • self-attentionを利用する ◦ 大域的な依存関係を捉える ◦ 言語ごとの語順の違いを吸収する
• データの不均衡を考慮する ◦ ソース・ターゲットのデータ規模 ◦ 予測が簡単な例・難しい例