Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
Unsupervised Statistical Machine Translation Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 3632–3642 Brussels, Belgium, October 31 - November 4, 2018. 文献紹介 長岡技術科学大学 勝田 哲弘
Slide 2
Slide 2 text
Introduction ● 近年では、教師なし学習モデル(NMT)が提案されているが、教師ありと比 べるとパフォーマンスが低いことがわかる。 ● NMTは大規模のパラレルコーパスを効率的に学習できる。 ● しかし、コーパスが十分に大きくない場合ではSMTが優れている。 この実験では、SMTが教師なし学習の設定に適しているかを 調べ、新しいモデルの提案を行う。 2
Slide 3
Slide 3 text
提案手法 基礎となる手法 ● phrase-based SMT(Koehn et al., 2003) ● cross-lingual n-gram embeddings(Artetxe et al., 2018) 3
Slide 4
Slide 4 text
Unsupervised SMT フレーズテーブルの誘導 ● ソース側の各ngramをターゲット側の最も近い100のngramが翻訳候補 の値をAdamを用いて最適化する 4
Slide 5
Slide 5 text
Unsupervised SMT 標準のSMTでは小さな並列コーパスに対して MERTを使用して学習する 逆翻訳によって擬似的に対訳コーパスを生成 し、SMTを学習させる 10000文をランダムに抽出 10 iterationsで学習 5
Slide 6
Slide 6 text
Unsupervised SMT より正確なモデルの学習 validation set 10000文 train set 200万文 反復 3回 6
Slide 7
Slide 7 text
Results 7
Slide 8
Slide 8 text
Ablation analysis 8
Slide 9
Slide 9 text
Results 9
Slide 10
Slide 10 text
Conclusions and future work 本稿では、単言語コーパスだけで訓練することができる新しい教師なしSMTシス テムを提案した。 ● NMTベースの手法より優れた教師なしモデルであることを確認 将来的には半教師学習、疑似データの生成によるNMTの学習など 10