Slide 1

Slide 1 text

深層学習における中間表現の分析 卒業研究中間発表 筑波⼤学 知識情報・図書館学類4年 ⼿塚研究室 潘 秋実

Slide 2

Slide 2 text

具体的なタスク e-Learningログを⽤いたDeep Knowledge Tracing Knowledge Tracing [1] 学習者の時間経過を伴った知識状態をモデリングするタスク. 将来学習者がどのように応答するのかを予測する. 2

Slide 3

Slide 3 text

データセット Assistments 2009-2010 correctedを使⽤ ⽣徒数 4,417 名 問題数 328,291 問 スキル 124 種類 3

Slide 4

Slide 4 text

問題例 スキル13:平⽅根の理解 スキル41:平⽅根と整数の⽐較 スキル4673:完全平⽅の理解 4

Slide 5

Slide 5 text

Deep Knowledge Tracing (1) LSTMをKTに適⽤したDKTモデル(Piech et al. 2016) (解いたスキルID ,正誤結果 ) (⽣徒の学習ログ) x = t qt at X = x , x , … , x { 1 2 T } 5

Slide 6

Slide 6 text

Deep Knowledge Tracing (2) : 時点の回答のワンホットエンコーディング :損失関数 :学習者⼀⼈に対する損失関数 L = ℓ y δ q , a t=1 ∑ T ( t ⊤ ( t+1) t+1 ) δ q ( t+1) t + 1 ℓ L 6

Slide 7

Slide 7 text

Deep Knowledge Tracing (3) 7

Slide 8

Slide 8 text

DKTの問題点 遷移振動問題(wavy transition problem)(Yeung et al. 2018) 予測値 と との差が⼤きい 学⼒は徐々に変化すると考えるのが⾃然 yt+1 yt 8

Slide 9

Slide 9 text

提案⼿法: Encoder-Decoder DKT (EDDKT) (1) X = src x , x , … , x { 1 2 T−1} X = trg x { T } 9

Slide 10

Slide 10 text

Encoder-Decoder DKT (EDDKT) (2) (⽣成モデル応⽤案) X = src x , x , … , x { 1 2 T−1} X = trg x , x { T−1 T } X = trg x , x { T T+1} X = trg x , y δ(q ) { T T+1 T+1 } 10

Slide 11

Slide 11 text

実験結果 (1) Dataset DKT(LSTM) EDDKT EDDKT(ef1) EDDKT(ef19) ASSISTments 2009-2010 0.862 0.819 0.806 0.827 11

Slide 12

Slide 12 text

実験結果 (2) 図: (上: LSTM DKT,下: EDDKT) 縦軸はスキル,横軸は(q , a ) t t 12

Slide 13

Slide 13 text

実験結果 (3) EDDKT extend forward 1; EDDKT extend forward 19; len(x ) = src 19, len(x ) = trg 1 len(x ) = src 1, len(x ) = trg 19 13

Slide 14

Slide 14 text

WIP: 指摘した遷移振動問題(wavy transition problem)[3]を定量的評価する実装 w = 1 M T −1 ∑ i=1 n ( i ) y −y ∑ i=1 n ∑ t=1 T −1 i ∥ t+1 i t i ∥ 1 w = 2 2 M T −1 ∑ i=1 n ( i ) y −y ∑ i=1 n ∑ t=1 T −1 i ∥ t+1 i t i ∥ 2 2 14

Slide 15

Slide 15 text

まとめ DKT(LSTM)の再現実装にてAUCスコア0.86を再現. 遷移振動問題を解決することをヒートマップで観察 →定量的な評価に切り替える(WIP) モデルのわずかな違いからヒートマップに現れたような差異がどのようにして⽣じたかの 分析 →中間表現(context vector)の内容を確認,⽐較分析 15

Slide 16

Slide 16 text

参考⽂献(1) [1] Corbett, A. T. and Anderson, J. R.: Knowledge tracing: Modeling the acquisition of procedural knowledge, User Modeling and User-adapted Interaction, Vol. 4, No. 4, pp. 253–278 (1994). [2] Piech, C., Bassen, J., Huang, J., Ganguli, S., Sahami, M., Guibas, L. J. and Sohl- Dickstein, J.: Deep knowledge tracing, Advances in Neural Information Processing Systems, pp. 505–513 (2015). [3] Yeung, C.-K. and Yeung, D.-Y.: Addressing two problems in deep knowledge tracing via prediction-consistent regularization, arXiv preprint arXiv:1806.02180 (2018). 16

Slide 17

Slide 17 text

参考⽂献(2) [4] Zhang, J., Shi, X., King, I. and Yeung, D.-Y.: Dynamic Key-Value Memory Networks for Knowledge Tracing, Proceedings of the 26th International Conference on World Wide Web, WWW ʼ17, Republic and Canton of Geneva, Switzerland, International World Wide Web Conferences Steering Committee, pp. 765–774 (online), DOI: 10.1145/3038912.3052580 (2017). [5] Yeung, C.: Deep-IRT: Make Deep Learning Based Knowledge Tracing Explainable Using Item Response Theory, CoRR, Vol. abs/1904.11738 (online), available from ⟨ http://arxiv.org/abs/1904.11738⟩ (2019). 17

Slide 18

Slide 18 text

補⾜資料 18

Slide 19

Slide 19 text

遷移振動問題(wavy transition problem) Yeungらによる定量評価の定式化 w = 1 M T −1 ∑ i=1 n ( i ) y −y ∑ i=1 n ∑ t=1 T −1 i ∥ t+1 i t i ∥ 1 w = 2 2 M T −1 ∑ i=1 n ( i ) y −y ∑ i=1 n ∑ t=1 T −1 i ∥ t+1 i t i ∥ 2 2 19

Slide 20

Slide 20 text

RNN Sequencialなデータを扱うための深層学習モデル. ⾃然⾔語処理,翻訳,画像キャプショニングなど様々に応⽤される. http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 20

Slide 21

Slide 21 text

LSTM ゲートと呼ばれる構造を加えたRNNのバージョン セル状態にデータを追加・削除することで,⻑期のデータを保持することができるようになる http://colah.github.io/posts/2015-08-Understanding-LSTMs/ https://www.mitpressjournals.org/doi/abs/10.1162/neco.1997.9.8.1735 21

Slide 22

Slide 22 text

DKVMN (Dynamic Key-Value Memory Networks) [4] Keyという知識のコンセプトを保存した静的⾏列と、Memoryという関連コンセプトの習熟度 を保存する動的⾏列を持つ新たなモデルの提案 22

Slide 23

Slide 23 text

Deep-IRT [5] DKVMNのモデルを応⽤し,推定された⽣徒の能⼒値とアイテムの難易度から,IRTを⽤いて 正解確率を計算した. 23