Slide 29
Slide 29 text
“解釈性”のいろんな解釈
85% |####################################################### |Sec.3
• Attentionで(タスクによっては)うまく解釈できる説
• Attentionの重みを⼿がかりにモデルの解釈性を探る⼿法
• Attention matrixの可視化がよく⽤いられる
• 感情分析ではAttentionの情報で隣接単語の関係性が分類に重要であるこ
とが⽰唆されている
• Gael, L., et al. (2018) Importance of Self-Attention for Sentiment Analysis[3]
• Attentionでうまく解釈できない説
• Sarthank, J., Byron, C. W. (2019) Attention in not Explanation[4]
• Attentionを加⼯すればうまくいく説︓saliency
• NLPのAttention層に対する勾配ベースの解釈性の導⼊
• Reza, G., et al.(2018) Interpreting Recurrent and Attention-Based Neural Model:
a Case Study on Natural Language Inference[5]
©2019 GVA TECH Co., Ltd
29