Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
【論文ゼミ】SSE-PT: Sequential Recommendation Via Per...
Search
Yamato Hara
October 07, 2021
Research
0
76
【論文ゼミ】SSE-PT: Sequential Recommendation Via Personalized Transformer
計算知能・マルチメディア研究室 論文ゼミ
紹介論文:
https://dl.acm.org/doi/10.1145/3383313.3412258
Yamato Hara
October 07, 2021
Tweet
Share
More Decks by Yamato Hara
See All by Yamato Hara
【IR Reading2022秋】 CPFair: Personalized Consumer and Producer Fairness Re-ranking for Recommender Systems
yamato0811
1
310
【論文ゼミ】Personalized Transfer of User Preferences for Cross-domain Recommendation
yamato0811
0
220
Other Decks in Research
See All in Research
資産間の相関関係を頑健に評価する指標を用いたファクターアローケーション戦略の構築
nomamist
0
140
リモートワークにおけるパッシブ疲労
matsumoto_r
PRO
6
5k
非ガウス性と非線形性に基づく統計的因果探索
sshimizu2006
0
550
「熊本県内バス・電車無料デー」の振り返りとその後の展開@土木計画学SS:成功失敗事例に学ぶ公共交通運賃設定
trafficbrain
0
220
Segment Any Change
satai
3
210
サーブレシーブ成功率は勝敗に影響するか?
vball_panda
0
550
渋谷Well-beingアンケート調査結果
shibuyasmartcityassociation
0
400
チュートリアル:Mamba, Vision Mamba (Vim)
hf149
6
2.2k
[輪講] Transformer Layers as Painters
nk35jk
4
690
한국어 오픈소스 거대 언어 모델의 가능성: 새로운 시대의 언어 이해와 생성
inureyes
PRO
0
230
Tiaccoon: コンテナネットワークにおいて複数トランスポート方式で統一的なアクセス制御
hiroyaonoe
0
430
Human-Informed Machine Learning Models and Interactions
hiromu1996
2
580
Featured
See All Featured
The Language of Interfaces
destraynor
156
24k
Visualizing Your Data: Incorporating Mongo into Loggly Infrastructure
mongodb
45
9.4k
Making the Leap to Tech Lead
cromwellryan
133
9.1k
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
656
59k
Faster Mobile Websites
deanohume
306
31k
We Have a Design System, Now What?
morganepeng
51
7.4k
Embracing the Ebb and Flow
colly
84
4.6k
Practical Orchestrator
shlominoach
186
10k
Site-Speed That Sticks
csswizardry
4
410
A Philosophy of Restraint
colly
203
16k
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
7
640
The Power of CSS Pseudo Elements
geoffreycrofte
75
5.5k
Transcript
論⽂紹介 原 弥⿇⼈ 0 SSE-PT: Sequential Recommendation Via Personalized Transformer
⽬次 • 論⽂の概要 • どんな分野か • 先⾏研究 • 提案⼿法 •
実験 • まとめ・疑問点 1
論⽂の概要 2 論⽂情報 タイトル : SSE-PT: Sequential Recommendation Via Personalized
Transformer 引⽤数 : 22回 学会 : RecSys September 22-26, 2020 レコメンド分野のトップカンファレンス 著者情報 著者 : Liwei Wu, Shuqing Li, Cho-Jui Hsieh, James Sharpnack 所属 : University of California, Davis University of California, Los Angles
論⽂の概要 3 • SSE-PTと呼ばれるTransformerベースのモデルでsequential recommendationの問題を解決した • ユーザーエンベディングを追加することでパーソナライズ • SSE正則化を⽤いて過学習を防ぐ •
5つのデータセットにおいてSoTAを達成
どんな分野か 4 Recommendationの種類 • General Recommendation • Graph Recommendation •
Knowledge Aware Recommendation • Sequential Recommendation ユーザーの好み・嗜好は固定ではなく変化するものという仮定
どんな分野か 5 猿 も ⽊ から 落ちる Sequential Recommendation NLP
次単語予測
どんな分野か 6 ⾃然⾔語処理の発展に伴うレコメンドシステムの遷移
先⾏研究 7 Kang, Wang-Cheng, and Julian McAuley. "Self-attentive sequential recommendation."
ICDM2018 SASRec Sequential RecommendationにTransformerを適⽤したモデル ユーザーにパーソナライズされていない︕ Transformer
提案⼿法 8 SSE-PT ユーザーベクトルを追加︕
提案⼿法 9 Embedding Layer 𝑣 ∶ アイテム 𝑢 ∶ ユーザー
ベクトル化 ⻑さ𝑇に満たないときはpaddingとして𝟎で埋める
提案⼿法 10 Transformer Encoder
提案⼿法 11 Transformer Encoder ⼊⼒ 出⼒
提案⼿法 12 Transformer Encoder • Wは学習によって変化していく • Wによって柔軟に
提案⼿法 13 Transformer Encoder ⼆層のニューラルネットワーク
提案⼿法 14 Prediction Layer ︓Transformer encoderの最後の タイムスタンプにおけるoutput : 時間 𝑡
でユーザー 𝑖 がアイテム 𝑙 を選ぶ確率 : loss関数 次に選んだであろうアイテム Log(1) = 0 Log(1-0) = 0 類似度
提案⼿法 15 SSE-PT ベクトル化 前後関係を考慮したベクトル
提案⼿法 16 Stochastic Shared Embeddings 2019年に同著者らが発表した⼿法 Wu, Liwei, et al.
"Stochastic shared embeddings: Data-driven regularization of embedding layers.” (2019) ある⼀定の確率でエンベディングを他のものと置き換える
実験 18 環境 CPU : 40-core Intel Xeon E5-2630 v4
@2.20GHz GPU : GTX 1080 データセット • Steam dataset • Movielens1M, Movielens10M • Amazon product review dataset(Beauty, Games) 評価指標 • Recall ・・・ユーザが実際に嗜好したアイテムのうちレコメンドリストでカバーした割合 • NDCG・・・おすすめ順の適合度を合計し,正規化したもの
実験 19 SSE-PTを⻑いシーケンスでも対応できるようにした版 (性能⽐較)
実験 20 (アテンションの可視化)
実験 21 (Training Speed)
疑問点 22 • 未知のユーザーが来たら推論がうまくいかないのではないか • Positive itemとnegative itemのリストはどのように作成しているのか
まとめ 23 • SSE-PTと呼ばれるTransformerベースのモデルでsequential recommendationの問題を解決した • ユーザーエンベディングを追加することでパーソナライズ • SSE正則化を⽤いて過学習を防ぐ •
5つのデータセットにおいてSoTAを達成
Appendix 24