Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
【論文ゼミ】SSE-PT: Sequential Recommendation Via Per...
Search
Yamato Hara
October 07, 2021
Research
0
140
【論文ゼミ】SSE-PT: Sequential Recommendation Via Personalized Transformer
計算知能・マルチメディア研究室 論文ゼミ
紹介論文:
https://dl.acm.org/doi/10.1145/3383313.3412258
Yamato Hara
October 07, 2021
Tweet
Share
More Decks by Yamato Hara
See All by Yamato Hara
【IR Reading2022秋】 CPFair: Personalized Consumer and Producer Fairness Re-ranking for Recommender Systems
yamato0811
1
350
【論文ゼミ】Personalized Transfer of User Preferences for Cross-domain Recommendation
yamato0811
0
310
Other Decks in Research
See All in Research
CVPR2025論文紹介:Unboxed
murakawatakuya
0
180
Integrating Static Optimization and Dynamic Nature in JavaScript (GPCE 2025)
tadd
0
110
引力・斥力を制御可能なランダム部分集合の確率分布
wasyro
0
270
A scalable, annual aboveground biomass product for monitoring carbon impacts of ecosystem restoration projects
satai
4
410
まずはここから:Overleaf共同執筆・CopilotでAIコーディング入門・Codespacesで独立環境
matsui_528
2
680
一人称視点映像解析の最先端(MIRU2025 チュートリアル)
takumayagi
6
4k
とあるSREの博士「過程」 / A Certain SRE’s Ph.D. Journey
yuukit
11
4.7k
多言語カスタマーインタビューの“壁”を越える~PMと生成AIの共創~ 株式会社ジグザグ 松野 亘
watarumatsuno
0
140
投資戦略202508
pw
0
570
長期・短期メモリを活用したエージェントの個別最適化
isidaitc
0
240
AIグラフィックデザインの進化:断片から統合(One Piece)へ / From Fragment to One Piece: A Survey on AI-Driven Graphic Design
shunk031
0
540
Pythonでジオを使い倒そう! 〜それとFOSS4G Hiroshima 2026のご紹介を少し〜
wata909
0
1.1k
Featured
See All Featured
jQuery: Nuts, Bolts and Bling
dougneiner
65
7.9k
GraphQLとの向き合い方2022年版
quramy
49
14k
BBQ
matthewcrist
89
9.9k
Typedesign – Prime Four
hannesfritz
42
2.9k
Making the Leap to Tech Lead
cromwellryan
135
9.6k
Navigating Team Friction
lara
190
15k
Building Applications with DynamoDB
mza
96
6.7k
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
231
22k
Thoughts on Productivity
jonyablonski
72
4.9k
Practical Tips for Bootstrapping Information Extraction Pipelines
honnibal
PRO
23
1.5k
Raft: Consensus for Rubyists
vanstee
140
7.2k
Writing Fast Ruby
sferik
630
62k
Transcript
論⽂紹介 原 弥⿇⼈ 0 SSE-PT: Sequential Recommendation Via Personalized Transformer
⽬次 • 論⽂の概要 • どんな分野か • 先⾏研究 • 提案⼿法 •
実験 • まとめ・疑問点 1
論⽂の概要 2 論⽂情報 タイトル : SSE-PT: Sequential Recommendation Via Personalized
Transformer 引⽤数 : 22回 学会 : RecSys September 22-26, 2020 レコメンド分野のトップカンファレンス 著者情報 著者 : Liwei Wu, Shuqing Li, Cho-Jui Hsieh, James Sharpnack 所属 : University of California, Davis University of California, Los Angles
論⽂の概要 3 • SSE-PTと呼ばれるTransformerベースのモデルでsequential recommendationの問題を解決した • ユーザーエンベディングを追加することでパーソナライズ • SSE正則化を⽤いて過学習を防ぐ •
5つのデータセットにおいてSoTAを達成
どんな分野か 4 Recommendationの種類 • General Recommendation • Graph Recommendation •
Knowledge Aware Recommendation • Sequential Recommendation ユーザーの好み・嗜好は固定ではなく変化するものという仮定
どんな分野か 5 猿 も ⽊ から 落ちる Sequential Recommendation NLP
次単語予測
どんな分野か 6 ⾃然⾔語処理の発展に伴うレコメンドシステムの遷移
先⾏研究 7 Kang, Wang-Cheng, and Julian McAuley. "Self-attentive sequential recommendation."
ICDM2018 SASRec Sequential RecommendationにTransformerを適⽤したモデル ユーザーにパーソナライズされていない︕ Transformer
提案⼿法 8 SSE-PT ユーザーベクトルを追加︕
提案⼿法 9 Embedding Layer 𝑣 ∶ アイテム 𝑢 ∶ ユーザー
ベクトル化 ⻑さ𝑇に満たないときはpaddingとして𝟎で埋める
提案⼿法 10 Transformer Encoder
提案⼿法 11 Transformer Encoder ⼊⼒ 出⼒
提案⼿法 12 Transformer Encoder • Wは学習によって変化していく • Wによって柔軟に
提案⼿法 13 Transformer Encoder ⼆層のニューラルネットワーク
提案⼿法 14 Prediction Layer ︓Transformer encoderの最後の タイムスタンプにおけるoutput : 時間 𝑡
でユーザー 𝑖 がアイテム 𝑙 を選ぶ確率 : loss関数 次に選んだであろうアイテム Log(1) = 0 Log(1-0) = 0 類似度
提案⼿法 15 SSE-PT ベクトル化 前後関係を考慮したベクトル
提案⼿法 16 Stochastic Shared Embeddings 2019年に同著者らが発表した⼿法 Wu, Liwei, et al.
"Stochastic shared embeddings: Data-driven regularization of embedding layers.” (2019) ある⼀定の確率でエンベディングを他のものと置き換える
実験 18 環境 CPU : 40-core Intel Xeon E5-2630 v4
@2.20GHz GPU : GTX 1080 データセット • Steam dataset • Movielens1M, Movielens10M • Amazon product review dataset(Beauty, Games) 評価指標 • Recall ・・・ユーザが実際に嗜好したアイテムのうちレコメンドリストでカバーした割合 • NDCG・・・おすすめ順の適合度を合計し,正規化したもの
実験 19 SSE-PTを⻑いシーケンスでも対応できるようにした版 (性能⽐較)
実験 20 (アテンションの可視化)
実験 21 (Training Speed)
疑問点 22 • 未知のユーザーが来たら推論がうまくいかないのではないか • Positive itemとnegative itemのリストはどのように作成しているのか
まとめ 23 • SSE-PTと呼ばれるTransformerベースのモデルでsequential recommendationの問題を解決した • ユーザーエンベディングを追加することでパーソナライズ • SSE正則化を⽤いて過学習を防ぐ •
5つのデータセットにおいてSoTAを達成
Appendix 24