Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介Deep Temporal-Recurrent-Replicated-Softmax ...
Search
Atom
January 10, 2020
0
120
文献紹介Deep Temporal-Recurrent-Replicated-Softmax for Topical Trends over Time
Atom
January 10, 2020
Tweet
Share
More Decks by Atom
See All by Atom
文献紹介 / Structure-based Knowledge Tracing: An Influence Propagation View
roraidolaurent
0
98
文献紹介 / Knowledge Tracing with GNN
roraidolaurent
0
100
文献紹介 / Non-Intrusive Parametric Reduced Order Models withHigh-Dimensional Inputs via Gradient-Free Active Subspace
roraidolaurent
0
60
ニューラルネットワークのベイズ推論 / Bayesian inference of neural networks
roraidolaurent
2
2.8k
Graph Convolutional Networks
roraidolaurent
0
240
文献紹介 / A Probabilistic Annotation Model for Crowdsourcing Coreference
roraidolaurent
0
76
文献紹介/ Bayesian Learning for Neural Dependency Parsing
roraidolaurent
0
120
ポッキー数列の加法定理 / Pocky number additon theorem
roraidolaurent
0
220
Scalable Bayesian Learning of Recurrent Neural Networks for Language Modeling
roraidolaurent
1
160
Featured
See All Featured
A Modern Web Designer's Workflow
chriscoyier
698
190k
A brief & incomplete history of UX Design for the World Wide Web: 1989–2019
jct
1
260
What’s in a name? Adding method to the madness
productmarketing
PRO
24
3.8k
Reality Check: Gamification 10 Years Later
codingconduct
0
1.9k
The innovator’s Mindset - Leading Through an Era of Exponential Change - McGill University 2025
jdejongh
PRO
1
69
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
世界の人気アプリ100個を分析して見えたペイウォール設計の心得
akihiro_kokubo
PRO
65
35k
The B2B funnel & how to create a winning content strategy
katarinadahlin
PRO
0
190
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
31
9.8k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
55
3.2k
Mind Mapping
helmedeiros
PRO
0
39
Max Prin - Stacking Signals: How International SEO Comes Together (And Falls Apart)
techseoconnect
PRO
0
49
Transcript
Deep Temporal-Recurrent-Replicated- Softmax for Topical Trends over Time 文献紹介 2020/1/10
長岡技術科学大学 自然言語処理研究室 吉澤 亜斗武
Abstract ・ニューラルベースの動的トピックモデル RNN-Replicated Softmax Model (RNN-RSM)を提案 ・最先端のモデルと比較して精度、コヒーレンスが良く より一般化したモデルであることを示した。 ・SPANというメトリックを導入し、トピックの単語を時系列で 追跡
2
1. Introduction ・先行研究においてSoftmaxによって確率を求めるモデル RSM が従来のLDAよりも精度が良く、より一般化されていることが 知られている。 ・しかし、現在の動的トピックモデルではLDAをベースとした モデルであり、明示的に単語を追跡できていない。 ・RNN-RSMを提案し、特定のトピックに関する単語を長期に わたって明示的にモデル化した。
3
2. The RNN-RSM model 4
2. The RNN-RSM model 5 () = () =1
() () ∶ × () ∶ dictionary size overall the time step () ∶ document size
2. The RNN-RSM model 6
2. The RNN-RSM model 7
2. The RNN-RSM model 8
3.1 Dataset and Experimental Setup ACLとEMNLPの論文 ExpandRank を使用して各論文についてユニグラムとバイグラム を含む上位100個のキーフレーズを抽出し、辞書を作成 9
3.1 Dataset and Experimental Setup 10
3.2 Generalization in Dynamic Topic Models 11
3.4 Topic Interpretability 12
3.5 TTC: Trending Keywords over time SPAN : キーワード出現の最長シーケンスの長さ 13
3.5 TTC: Trending Keywords over time 14 言語モデルや機械翻訳 は昔からキワードであ る一方、ニューラルや
単語埋め込みは最近
3.5 TTC: Trending Keywords over time 15
3.5 TTC: Trending Keywords over time 16 LDAやRSMでは長期的なトピック(言 語モデルや機械翻訳)は完全には追跡で きなく、DTMは新しいトピック
(ニューラルや単語埋め込み)には対応 できないが、RNN-RSMは両方とも対応 できる。
6 Conclusion 17 ・RNNと確率的グラフィカルモデルRSMに基づいた RNN-RSMを提案 ・従来のモデルより精度が高く一般化されたモデルであり、 コヒーレンスも高いことを示した。 ・よりトピックの追跡を説明するためにSPANを導入。 ・今後は、学習時間などの学習過程について調査し改善したい