Upgrade to Pro — share decks privately, control downloads, hide ads and more …

文献紹介_201910_Do Neural NLP Models Know Numbers? Probing Numeracy in Embeddings

T.Tada
October 28, 2019

文献紹介_201910_Do Neural NLP Models Know Numbers? Probing Numeracy in Embeddings

T.Tada

October 28, 2019
Tweet

More Decks by T.Tada

Other Decks in Technology

Transcript

  1. - 文献紹介 2019 Oct. 28 - Do Neural NLP Models

    Know Numbers? Probing Numeracy in Embeddings 長岡技術科学大学
 自然言語処理研究室
 多田太郎

  2. Numeracy Case Study: DROP QA 5 数値推論を必要とするタスクを用いて既存モデルを検証 ・DROP Dataset: カウント、ソート、加算などの数値推論が含まれる

    ・モデル: NAQANet (Dua et al., 2019)  ※DROPのSOTAモデル 数値の大きさや、明示的な比較を実行するための補助コンポーネントは含まれていない 計算能力を必要とする質問、比較の質問と最上級を答える質問に焦点を当てる
  3. Numeracy Case Study: DROP QA 8 さっきの例だと、、、 Which player had

    a touchdown longer than 20 yards? (1)すべてのタッチダウン距離を抽出 (2)20ヤード超え (3)タッチダウンしたプレーヤー 複数の手順が必要となるタスクで精度低  →タスク自体が難しい
  4. Numeracy Case Study: DROP QA 10 どこまで出来るのか?ストレステスト ・大きい数値:  正のランダムな整数を生成し、その値を各パラグラフの数値に乗算または加算 ・単語形式:

     パラグラフ内のすべての数字を置き換え(例:「75」→「seventy-five」)  DROP内の数値は小さいため、範囲[0, 100]の整数の単語置換で実施
  5. Numeracy Case Study: DROP QA 13 NAQANetは、期待以上の数値推論機能を備えていた  →この精度を可能にするものは何か? 結果はモデルが以下2点を学習できることを示している  比較アルゴリズム

     質問と回答(教師データ)のみから数値の読み取りと理解 数値情報のソースはトークンの埋め込み  →つまりNAQANetモデルの文字レベルの畳み込みとGloVeの埋め込み  →これらの埋め込みについて調査
  6. Probing Numeracy of Embeddings 16 文字レベルの 精度高 BERTが大きい レンジで精度低 サブワード手法

    の影響? 数値の値がそ のまま埋め込み 表現の値    ↓ 大きいレンジだ と精度低
  7. Probing Numeracy of Embeddings 21 トレーニングの範囲外の値でList Maximum トレーニング: [0,150] テスト:

    [151,160], [151,180], [151,200] 全ての手法で、精度が下がる結果 特にトークンベクトルで大きく下がった
  8. Probing Numeracy of Embeddings 23 トレーニングの範囲外の値でDecoding と Addition トレーニング:[-500,500](青) テスト:[2000、2000](赤)

    どの埋め込み方法も範囲外の 値には対応出来ず Trask et al. (2018) でもモデルがトレーニング範囲外の値への対応が難しいこと に触れている  →彼らはニューラルモデル自体に起因すると考察している