長岡技術科学大学 自然言語処理研究室 文献紹介(2020-02-13) Multi-Agent Dual Learning https://openreview.net/pdf?id=HyGhN2A5tm
Multi-Agent Dual LearningYiren Wang, Yingce Xia, Tianyu He, Fei Tian, Tao Qin, Cheng Xiang Zhai, Tie Yan Liu7th International Conference on Learning Representations, ICLR 2019⻑岡技術科学⼤学 ⾃然⾔語処理研究室 ⼩川耀⼀朗⽂献紹介(2020-02-13)0
View Slide
Dual Learning:- ドメインXからドメインYへの変換と、ドメインYからドメインXへの変換の2元性を学習するしくみ- 機械翻訳、画像変換、質問応答、イメージキャプションなどの2元性を持つタスクに適⽤されているDual Learning1
Dual LearningItʼs been a hard dayʼs night.それは⾟い⼀⽇の夜だった。It was a hard dayʼs night.⽇本語訳 英語訳 誤差 Δ, ' = 'ü 英語→⽇本語→英語と翻訳した時の翻訳⽂と原⽂との誤差をフィードバックする2
Dual LearningドメインX ドメインY'': → : → 誤差Δ, /' = ' = '3
X→Y→Xの誤差Dual Learningのロス:Dual Learning2, 3: X, Yの訓練データY→X→Yの誤差4
従来のDual Learning → two-agent dual learning- 1つの順⽅向モデル 4, 1つの逆⽅向モデル 4を⽤いる提案⼿法 → multi-agent dual learning- 複数の順⽅向モデル 5, 逆⽅向モデル 5を⽤いる- ∈ {1, 2, … , − 1}Multi-Agent Dual Learning5
Multi-Agent Dual Learningのロス:Multi-Agent Dual LearningX→Y→Xの誤差 Y→X→Yの誤差- 4~ABC, 4~ABCをそれぞれ⾜し合わせたモデル E, Gを⽤いる- 重み α5, β5は単純に1/N- C~ABC, C~ABCは事前学習したパラメータで固定し、 4, 4のみを学習させる6
アンサンブル学習との違い:- アンサンブルではモデルを独⽴に学習するが、提案⼿法では組み合わせて学習する- 提案⼿法では推論時には4のみ⽤いる- アンサンブルは2元性を考慮していないMulti-Agent Dual Learning7
モデルは Transformerベースライン:- back translation (BT)- 逆翻訳モデル: → を⽤いて , を作成し, 翻訳モデルの訓練データに追加- knowledge distillation (KD)- 事前学習した教師モデルL: → を⽤いて , L を作成し,翻訳モデルの訓練データに追加- two-agent dual learning (Dual-1)- 4, 4のみ使⽤Experiment8
Results on IWSLT- 4B, 8B: 訓練時の各エージェント(Transformer)のブロック数- Standard: Transformer- KD-{1,5}: knowledge distillation- BT-{1,5}: back translation {1,5}:翻訳モデルの数(アンサンブル?)- Dual-1: two-agent dual learning- Dual-5: multi-agent dual learning9
Results on IWSLTü Dual Learningはベースライン(Standard, KD, BT)よりも⾼いスコアü multi-agent (Dual-5) によってtwo-agent(Dual-1)よりもスコアが向上10
Results on IWSLT- エージェントの数を増やすほど性能は向上する- しかしGPUの負荷は⼤きくなる11
Conclusion- ドメインXからドメインYへの変換と、ドメインYからドメインXへの変換の2元性を学習するDual Learningを拡張した Multi-Agent DualLearning を提案- 機械翻訳タスクにおいて性能の向上を確認した12
13
14ReferencesMULTI-AGENT DUAL LEARNING- https://qiita.com/kayamin/items/505cd06275f66b5cb126論⽂紹介︓Multi-Agent Dual Learning- https://qiita.com/koreyou/items/1edb449c72ceeff72f36
15Results on WMT14Bitext: 対訳データMono: 対訳データに単⾔語データを加えたものBitextにおいて(この時点で)state-of-the-art
16Results on WMT16 unsupervised NMT単⾔語データでUNMTを事前学習したモデルをエージェントとして加える