Upgrade to Pro — share decks privately, control downloads, hide ads and more …

NERのための転移学習

altescy
September 18, 2019

 NERのための転移学習

altescy

September 18, 2019
Tweet

Other Decks in Research

Transcript

  1. 転移学習 • あるドメインのデータや学習済みモデルを使って他の ドメインのモデルを学習する手法 • 自然言語処理の分野における転移学習 ◦ Cross-Domain 例: ニュース →

    SNS ◦ Cross-Lingual 例: 日本語 → 英語 • データの多いドメインから得られる知識を活用したい domain-specificなNERを行いたいと いう要求は現実問題として多そう
  2. アプローチ: 単語翻訳 • Cheap Translation for Cross-Lingual Named Entity Recognition

    [Mayhew+, 2017] ◦ 単語翻訳によるCross-Lingual NERの提案 • Neural Cross-Lingual NER with Minimal Resources [Xie+, 2018] ◦ 単語埋め込みのアライメントによる単語翻訳 ◦ self-attentionによる語順の違いの吸収
  3. アプローチ: Fine-Tuning • How Transferable are Neural Networks in NLP

    Applications? [Mou+, 2016] ◦ Fine-TuningによるNERタスクの転移学習の可能性を 考察 • Neural Adaptation Layers for Cross-domain Named Entity Recognition [Lin+, 2018] ◦ Fine-Tuningと,固定の学習済みエンコーダの前後に レイヤーを追加する手法の比較
  4. アプローチ: 潜在表現の共有 • Adversarial Transfer Learning for Chinese Named Entity

    Recognition with Self-Attention Mechanism [Cao+, 2018] ◦ 中国語における,単語分割→NERの転移学習 • Dual Adversarial Neural Transfer for Low-Resource Named Entity Recognition [Zhou1+, 2019] ◦ 高リソース→低リソースの転移学習 ◦ 今回はこれにフォーカスします
  5. Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] 概要

    • 高リソース→低リソースの転移学習 • 潜在表現を共有するモデル 提案手法 • リソース同士のデータの不均衡を考慮する (データ規模・予測の難しさ) • リソース特有の特徴を考慮する • 敵対訓練による正則化を行う
  6. Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] DATNet-P

    ソース / 共有 / ターゲット DATNet-F すべて共有
  7. Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] Discriminator

    • 共有の潜在表現がどちらのリソースのものか判別 • エンコーダは判別器が誤るように学習 • 不均衡を考慮した誤差関数 (いわゆる Focal-Loss) データ規模の不均衡を調整 予測の難しい例を学習 Adversarial Training • 単語埋め込みに敵対的摂動を与えながら学習
  8. Dual Adversarial Neural Transfer for Low-Resource NER [Zhou1+, 2019] Cross-Lingual

    (英→西) • ターゲットのデータ数が少ないときはDATNet-F, 多いと きはDATNet-Pがよい Cross-Domain (ニュース→SNS) • データ規模によらずDATNet-Fがよい