Slide 15
Slide 15 text
Copyright©2018 NTT corp. All Rights Reserved. 15
ベースライン
1
2
−1
……
……
EMBED
BLSTM
SOTMAX
ATTENTION
1 2
−1
1 2
−1
BLSTM
ℎ
= −
=1
||
log (
|
, )
誤差を逆伝搬
することで、
パラメータを
最適化
入力: トークン系列 = {1
, … ,
}
本研究では、BLSTM-RNNとAttention機構を用いた
文分類のネットワーク構造を採用 [Yang+ 2016]
出力: ラベル事後確率 = {(1
|), … , (
|)}
学習時の誤差
単言語・単タスクを扱うモデル化と学習