Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
Deep Temporal-Recurrent-Replicated- Softmax for Topical Trends over Time 文献紹介 2020/1/10 長岡技術科学大学 自然言語処理研究室 吉澤 亜斗武
Slide 2
Slide 2 text
Abstract ・ニューラルベースの動的トピックモデル RNN-Replicated Softmax Model (RNN-RSM)を提案 ・最先端のモデルと比較して精度、コヒーレンスが良く より一般化したモデルであることを示した。 ・SPANというメトリックを導入し、トピックの単語を時系列で 追跡 2
Slide 3
Slide 3 text
1. Introduction ・先行研究においてSoftmaxによって確率を求めるモデル RSM が従来のLDAよりも精度が良く、より一般化されていることが 知られている。 ・しかし、現在の動的トピックモデルではLDAをベースとした モデルであり、明示的に単語を追跡できていない。 ・RNN-RSMを提案し、特定のトピックに関する単語を長期に わたって明示的にモデル化した。 3
Slide 4
Slide 4 text
2. The RNN-RSM model 4
Slide 5
Slide 5 text
2. The RNN-RSM model 5 () = () =1 () () ∶ × () ∶ dictionary size overall the time step () ∶ document size
Slide 6
Slide 6 text
2. The RNN-RSM model 6
Slide 7
Slide 7 text
2. The RNN-RSM model 7
Slide 8
Slide 8 text
2. The RNN-RSM model 8
Slide 9
Slide 9 text
3.1 Dataset and Experimental Setup ACLとEMNLPの論文 ExpandRank を使用して各論文についてユニグラムとバイグラム を含む上位100個のキーフレーズを抽出し、辞書を作成 9
Slide 10
Slide 10 text
3.1 Dataset and Experimental Setup 10
Slide 11
Slide 11 text
3.2 Generalization in Dynamic Topic Models 11
Slide 12
Slide 12 text
3.4 Topic Interpretability 12
Slide 13
Slide 13 text
3.5 TTC: Trending Keywords over time SPAN : キーワード出現の最長シーケンスの長さ 13
Slide 14
Slide 14 text
3.5 TTC: Trending Keywords over time 14 言語モデルや機械翻訳 は昔からキワードであ る一方、ニューラルや 単語埋め込みは最近
Slide 15
Slide 15 text
3.5 TTC: Trending Keywords over time 15
Slide 16
Slide 16 text
3.5 TTC: Trending Keywords over time 16 LDAやRSMでは長期的なトピック(言 語モデルや機械翻訳)は完全には追跡で きなく、DTMは新しいトピック (ニューラルや単語埋め込み)には対応 できないが、RNN-RSMは両方とも対応 できる。
Slide 17
Slide 17 text
6 Conclusion 17 ・RNNと確率的グラフィカルモデルRSMに基づいた RNN-RSMを提案 ・従来のモデルより精度が高く一般化されたモデルであり、 コヒーレンスも高いことを示した。 ・よりトピックの追跡を説明するためにSPANを導入。 ・今後は、学習時間などの学習過程について調査し改善したい