−1 …… …… EMBED BLSTM SOTMAX ATTENTION 1 2 −1 1 2 −1 BLSTM ℎ = − =1 || log ( | , ) 誤差を逆伝搬 することで、 パラメータを 最適化 入力: トークン系列 = {1 , … , } 本研究では、BLSTM-RNNとAttention機構を用いた 文分類のネットワーク構造を採用 [Yang+ 2016] 出力: ラベル事後確率 = {(1 |), … , ( |)} 学習時の誤差 単言語・単タスクを扱うモデル化と学習