Upgrade to Pro — share decks privately, control downloads, hide ads and more …

snlp2018

kichi
August 04, 2018
190

 snlp2018

kichi

August 04, 2018
Tweet

Transcript

  1. ACL2018 2018/8/4 最先端NLP勉強会2018 読み手:斉藤いつみ Wan-Ting Hsu, Chieh-Kai Lin, Ming-Ying Lee,

    Kerui Min, Jing Tang, Min Sun A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss
  2. 概要 • 貢献:抽出型(extractive)と生成型(abstractive) の要約の利点を融合 – 抽出型から計算される文レベルのアテンションと生 成型から計算される単語レベルのアテンションの双 方を利用 – 双方の整合性を取るようなinconsistency

    lossを提案 – それぞれのベースモデルは既存の(当時の)state- of-the-artモデルを使用→組み合わせ方に新規性 • 結果: – CNN/Daily Mailデータセットで自動・主観評価ともに 良い結果
  3. 背景 S1 S2 S3 Sk ・・・ 文抽出 重要文の抽出 S1 S3

    S4 S4 Extractive要約 Abstractive要約 S1 S2 S3 Sk ・・・ 文生成 単語を順に生成 S4 W1, W2, W3, W4 W5, ….. WL • Extractiveとabstractiveは独立に研究が進んでいた
  4. ベースモデル1:Extractive summarization • SummaRuNNer: A Recurrent Neural Network based Sequence

    Model for Extractive Summarization of Documents [Nallapati+ 2017] • 階層的なRNNを使って 文の1/0を推定 • テスト時は,文のスコ アが高い順に文字数 の制約に達するまで文 を要約に追加
  5. ベースモデル2:Abstractive summarization • Get To The Point: Summarization with Pointer-

    Generator Networks [See+ 2017] – 単語生成確率に,ソース文書中の単語コピー確率を 考慮.単語レベルでの抽出的な操作を考慮
  6. Extractor • Ground truth labelの決定 – 各sentenceとreferenceの文集合でROUGE-L recallを計算 – スコアが高い順にsentenceを並べて,上から順にスコアが

    上がらなくなるまで疑似正例として追加 ソース文書 スコア順に ソート ソート済ソース文書 参照要約との ROUGEが最大 になるセット中 の文について g=1. それ以外の文 はg=0とする 参照要約 R1 R2 R3
  7. 学習 • Pre-train – ExtractorとAbstracterをそれぞれ個別に学習 – Abstracterを学習する際には,文選択の正解 ( )を入力として学習を行う •

    Extractor + Abstracter – Two-stages training • Extractorで高いアテンションが得られた文をhard samplingして入力とする – End-to-end training • すべてのlossをまとめて学習
  8. データセット • CNN/Daily Mail Dataset – 要約でよく使われるデータセット – train:287,113, validation:13,368

    , test: 11,490 Grusky et al., (2018) NEWSROOM: A Dataset of 1.3 Million Summaries with Diverse Extractive Strategiesより引用