Slide 1

Slide 1 text

Deep Temporal-Recurrent-Replicated- Softmax for Topical Trends over Time 文献紹介 2020/1/10 長岡技術科学大学 自然言語処理研究室 吉澤 亜斗武

Slide 2

Slide 2 text

Abstract ・ニューラルベースの動的トピックモデル RNN-Replicated Softmax Model (RNN-RSM)を提案 ・最先端のモデルと比較して精度、コヒーレンスが良く より一般化したモデルであることを示した。 ・SPANというメトリックを導入し、トピックの単語を時系列で 追跡 2

Slide 3

Slide 3 text

1. Introduction ・先行研究においてSoftmaxによって確率を求めるモデル RSM が従来のLDAよりも精度が良く、より一般化されていることが 知られている。 ・しかし、現在の動的トピックモデルではLDAをベースとした モデルであり、明示的に単語を追跡できていない。 ・RNN-RSMを提案し、特定のトピックに関する単語を長期に わたって明示的にモデル化した。 3

Slide 4

Slide 4 text

2. The RNN-RSM model 4

Slide 5

Slide 5 text

2. The RNN-RSM model 5 ෡ () = () =1 () () ∶ × () ∶ dictionary size overall the time step () ∶ document size

Slide 6

Slide 6 text

2. The RNN-RSM model 6

Slide 7

Slide 7 text

2. The RNN-RSM model 7

Slide 8

Slide 8 text

2. The RNN-RSM model 8

Slide 9

Slide 9 text

3.1 Dataset and Experimental Setup ACLとEMNLPの論文 ExpandRank を使用して各論文についてユニグラムとバイグラム を含む上位100個のキーフレーズを抽出し、辞書を作成 9

Slide 10

Slide 10 text

3.1 Dataset and Experimental Setup 10

Slide 11

Slide 11 text

3.2 Generalization in Dynamic Topic Models 11

Slide 12

Slide 12 text

3.4 Topic Interpretability 12

Slide 13

Slide 13 text

3.5 TTC: Trending Keywords over time SPAN : キーワード出現の最長シーケンスの長さ 13

Slide 14

Slide 14 text

3.5 TTC: Trending Keywords over time 14 言語モデルや機械翻訳 は昔からキワードであ る一方、ニューラルや 単語埋め込みは最近

Slide 15

Slide 15 text

3.5 TTC: Trending Keywords over time 15

Slide 16

Slide 16 text

3.5 TTC: Trending Keywords over time 16 LDAやRSMでは長期的なトピック(言 語モデルや機械翻訳)は完全には追跡で きなく、DTMは新しいトピック (ニューラルや単語埋め込み)には対応 できないが、RNN-RSMは両方とも対応 できる。

Slide 17

Slide 17 text

6 Conclusion 17 ・RNNと確率的グラフィカルモデルRSMに基づいた RNN-RSMを提案 ・従来のモデルより精度が高く一般化されたモデルであり、 コヒーレンスも高いことを示した。 ・よりトピックの追跡を説明するためにSPANを導入。 ・今後は、学習時間などの学習過程について調査し改善したい