Deep Temporal-Recurrent-Replicated-Softmax for Topical Trends over Time文献紹介2020/1/10長岡技術科学大学自然言語処理研究室 吉澤 亜斗武
View Slide
Abstract・ニューラルベースの動的トピックモデルRNN-Replicated Softmax Model (RNN-RSM)を提案・最先端のモデルと比較して精度、コヒーレンスが良くより一般化したモデルであることを示した。・SPANというメトリックを導入し、トピックの単語を時系列で追跡2
1. Introduction・先行研究においてSoftmaxによって確率を求めるモデル RSMが従来のLDAよりも精度が良く、より一般化されていることが知られている。・しかし、現在の動的トピックモデルではLDAをベースとしたモデルであり、明示的に単語を追跡できていない。・RNN-RSMを提案し、特定のトピックに関する単語を長期にわたって明示的にモデル化した。3
2. The RNN-RSM model4
2. The RNN-RSM model5() = ()=1()() ∶ × () ∶ dictionary size overall the time step() ∶ document size
2. The RNN-RSM model6
2. The RNN-RSM model7
2. The RNN-RSM model8
3.1 Dataset and Experimental SetupACLとEMNLPの論文ExpandRank を使用して各論文についてユニグラムとバイグラムを含む上位100個のキーフレーズを抽出し、辞書を作成9
3.1 Dataset and Experimental Setup10
3.2 Generalization in Dynamic Topic Models11
3.4 Topic Interpretability12
3.5 TTC: Trending Keywords over timeSPAN : キーワード出現の最長シーケンスの長さ13
3.5 TTC: Trending Keywords over time14言語モデルや機械翻訳は昔からキワードである一方、ニューラルや単語埋め込みは最近
3.5 TTC: Trending Keywords over time15
3.5 TTC: Trending Keywords over time16LDAやRSMでは長期的なトピック(言語モデルや機械翻訳)は完全には追跡できなく、DTMは新しいトピック(ニューラルや単語埋め込み)には対応できないが、RNN-RSMは両方とも対応できる。
6 Conclusion17・RNNと確率的グラフィカルモデルRSMに基づいたRNN-RSMを提案・従来のモデルより精度が高く一般化されたモデルであり、コヒーレンスも高いことを示した。・よりトピックの追跡を説明するためにSPANを導入。・今後は、学習時間などの学習過程について調査し改善したい