Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Is Attention Interpretable?

Naoaki Okazaki
September 25, 2019

Is Attention Interpretable?

Naoaki Okazaki

September 25, 2019
Tweet

More Decks by Naoaki Okazaki

Other Decks in Research

Transcript

  1. アテンション (attention) (Bahdanau+ 2015) 1 計算例  各入力ℎ をベクト ル

    に変換  と からスコア を計算し,ソフト マックス関数で確 率分布に変換  を「重み」とし て入力ℎ の重み付 き和を計算 = tanh ℎ + = exp ⊺ ∑ exp ⊺ = � ℎ 1 3 2 -1 -2 2 ℎ1 ℎ2 ℎ3 Linear & tanh .1 -.4 .3 .2 .4 -.2 1 2 3 Dot product with & softmax .2 .5 .3 1 3 2 -1 -2 2 ℎ1 ℎ2 ℎ3 × × × .6 .7 1 2 3 機械翻訳など種々のタスクで性能向上を示す 重み をからモデルの挙動を解釈する研究がある Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. 2015. Neural machine translation by jointly learning to align and translate. In Proc. of ICLR.
  2. 本研究の概要 2 検証したい仮説  モデルが重要と考える入力をアテンションから同定できるか? 検証方法  学習済モデルに対して,ある指標(例:高いアテンション重みやラ ンダムなど)で選んだ入力のアテンションの重みをゼロにしていく 

    モデルが予測したラベル及び確率分布はどのように変わるか?  ラベルの予測が変わるまでに要した「重みゼロ」の回数は? 結論  アテンションは入力の重要度をノイジーに予測するが,モデル予測 の原因を特定することができるくらいの絶対確実な指標ではない
  3. Hierarchical Attention Network (HAN) (検証に利用する既存モデル) 3 Yang+ (2016) を改変 Zichao

    Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. 2016. Hierarchical attention networks for document classification. In Proc. of NAACL-HLT. 単語に対するアテンション Query: (どのような単語が重要か) Key と Value: ℎ (文の単語の表現) 単語列を双方向GRUでエンコード 文系列を双方向GRUでエンコード 文に対するアテンション Query: (どのような文が重要か) Key と Value: ℎ (文の表現) 線形変換+ソフトマックスで予測 ← 検証対象
  4. Flat Attention Network (FLAN) (検証に利用する本研究独自のモデル) 4 Serrano+ (2019) を改変 単語に対するアテンション

    Query: Key と Value: ℎ (単語の表現) = tanh ℎ + , = exp ⊺ ∑ exp ⊺ 重み付き和 以下のCNNに加えて,双方向RNNと単語 ベクトルのみの設定でも実験する ← 検証対象
  5. 検証方法1:ある入力のアテンション重みを強制的にゼロにする 6 1 2 3 4 入力(単語列) ラベル予測の変化: 変化有り 変化無し

    JS divergenceの差: JS(, ∗ ′) JS(, ′ ) − ∗ ′ ′ ラベルを予測する層(線形変換&ソフトマックス) アテンション付きエンコーダ(RNN or CNN or 単語ベクトルのみ) 最大の重みを0に ランダムに選んだ 入力の重みを0に (その後正規化) (その後正規化) 入力に対する アテンション 元々の予測 重要と思われる入力 を除去した時の予測 ランダムに入力を 除去した時の予測 コントロール と対比する 相違
  6. 検証方法1:JSダイバージェンスの差の変化 (モデル: HAN-rnn) 7 Serrano+ (2019) 2018 JS Divergenceの差は概ね正の値 アテンションの重みが確率分布の予測によ

    い影響を与えていることを支持する結果 ← 最大の重み,もしくはランダムに 選んだ重みをゼロにしたとき  横軸: 両者の重みの差  縦軸: JS Divergenceの差 JS , ∗ ′ − JS , ′ 最大の重みを 除去した時の 確率分布距離 ランダムに重み を除去した時の 確率分布距離 アテンションの重みが確率分布予 測に大きな影響を与えるのであれ ば,これは正の値をとるはず アテンションが予測に与える影響 の大きさについては疑問が残る 例えば,アテンション重みの差が0.4くらい あるときでも,JS Divergenceはゼロに近い
  7. 検証方法1:ラベル予測の変化の割合 (モデル: HAN-rnn) 8 ↑ 最大,もしくはランダムに選んだ重みをゼロにしたとき  左上: 両方の設定で予測ラベルが変化 

    右上: 最大の重みをゼロにした時だけラベルが変化  左下: ランダムに重みをゼロにした時のみラベルが変化  右下: 両方の設定で予測ラベルが変化しなかった Serrano+ (2019) アテンションが入力の重要度を 捉えるのであれば,右上の数字 が大きくなるはず アテンションは予測に貢献する入 力を見出す傾向はあるらしい 左下よりも右下の数字が大きいので 最大の重みのアテンションをゼロ にしても,予測されるラベルがあ まり変化しない 85-90%の事例では予測結果が変化しない ある文の情報を隠しても,他の文の情報か ら文書のカテゴリが予測できるから? アテンションの解釈性を 示唆する結果ではあるが, 多くの事例ではゼロにす る重みをどのように選ん でも予測が変化しない
  8. 検証方法2:予測ラベルが変わるまでアテンション重みをゼロに 9 1 3 ℎ1 .2 1 2 -1 ℎ2

    .5 2 -2 2 ℎ3 .3 3 線形変換&ソフトマックス 予測結果が変わるまで繰り返す  ある入力のアテンション重みを ゼロにする  アテンション重みを正規化  表現ベクトルを再計算して,ラ ベル予測を行う どの順で重みをゼロにしていくか  ランダム  アテンション重み の大きい順  勾配 の大きい順  ⋅ の大きい順 元々のモデルで予測された ラベルの確率推定値 .4 .6 ①最大の重みを持 つアテンションの 重みをゼロにして 再計算 ②2番目に高い重 みを持つアテン ションの重みをゼ ロにして再計算 1 アテンション重み が大きい順にゼロに していく例 アテンションの重み降 順にゼロにしていくと, 2個除去したときに予 測結果が変化した ← 予測結果が変化した