Slide 25
Slide 25 text
典型的なモデル構成
順伝搬型ニューラル言語モデルと注意機構を組み合わせたモデルがベンチマークと
してよく利用されている
論文中ではAttention Based Summarization(ABS)と名付けられ、入力文をX,出力文を
Yとして以下の式に従ってモデル化している
P
abs
(Y|X)=∏j+1P
abs
(y
j
|X,Y
[j-C, j-1]
)…(5.1)
P
abs
(y
j
|X,Y
[j-C, j-1]
)=softmax(o
j
)・y
j
…(5.2)
o
j
=nnlm(Y
[j-C, j-1]
)+enc(X,Y
[j-C, j-1]
)…(5.3)
https://aclweb.org/anthology/D/D15/D15-1044.pdf