論文紹介: Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement (SIGIR’21)
by
Yosuke Saito
Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement (SIGIR’21) Mingyue Cheng, Fajie Yuan, Qi Liu, Shenyang Ge, Zhi Li, Runlong Yu, Defu Lian, Senchao Yuan, Enhong Chen 京都大学 吉川・馬研究室 D1 斎藤 陽介
Slide 2
Slide 2 text
研究背景 - implicit feedbackのitem recommendationでdeep learningが使われるようになっ てきた - deep recommender modelではloss functionをどう定式化するか・最適化をどう実 行するかがチャレンジの1つ - 教師あり機械学習の場合のitem recommendationでは、主に3つの方法がある - pointwise loss - pairwise loss - softmax loss - softmax lossはcomputer visionやNLPで広く採用されており、そのシンプルさから 最近推薦でも使われるようになってきた 2
Slide 3
Slide 3 text
研究背景 - 典型的なsoftmax lossはimplicit feedbackを扱う場合明らかな欠点が ある - missing feedbackのambiguityを無視 → dislikeではなく単なる欠落データ の可能性 - この問題自体は新しいquestionでは ないが、softmax lossについてこれま で研究されてこなかった 3 出典: Figure 1
Slide 4
Slide 4 text
提案手法 - アイデア: 追加のsoft targetsを組み込んで original hard targetsを滑らかにする - well-informed soft targetsの定義 - soft target ∈ [0,1] - 合計が1 - argmaxがoriginal hard targetのitemと一致 - 3つの戦略: item-based, user-based, model-based 4 0 1 0 0 0 0 0 0 0.1 0.3 0.01 0.2 0.1 0.02 0.24 0.03 0.05 0.5 0.01 0.2 0.01 0.01 0.2 0.02 model outputs original hard targets soft targets match match hard targets model outputs soft targets 元のoptimization objective
Slide 5
Slide 5 text
提案手法 - Item-Based Strategy - clicking frequencyなどのitemのpopularityを使って分布を作る - 人気の方が好まれやすいので、 normalizedしたpopularity distributionは学習に有益なはず - そのまま適用すると well-informed soft targetsの定義に違反するので、少し変更を加える 5 normalized popularity distribution
Slide 6
Slide 6 text
提案手法 - User-Based Strategy - personalizedされた分布 - neighborhoodの情報を使う - 1. どうやってneighborhoodの情報を得るか - historical interactionsとitem2vecでuser ごとのembeddingを作成 - cosine similarityの近いuserを neiborhoodと判定 - 2. どうやってモデル化するか - collaborative siamese network(CSN) - neighborhoodのpredictionsとの距離が 近くなるようにパラメータを学習 6 出典: Figure 3
Slide 7
Slide 7 text
提案手法 - Model-Based Strategy - Knowledge Distillationを使う - Self Knowledge Distillation(SKD): teacher networkとstudent networkと同 じにする - Cross-architecture Knowledge Distillation(CKD): teacher networkと student networkと別にする 7 出典: Figure 4
Slide 8
Slide 8 text
実験 - リサーチクエスチョン - 1. 提案手法は推薦モデルの accuracyを高めるか? - 2. 提案手法は汎用的か? - 3. 提案手法はsampled softmax lossにも適しているか? - 4. コールドスタート設定での提案手法のパフォーマンスはどうか? - データセット - MovieLens - Last.FM - 評価指標(K = 10) - MRR@K - NDCG@K - Recall@K 8
Slide 9
Slide 9 text
実験 - 4つの推薦モデルに対し提案手法を適用し、ベースラインと比較 - 推薦手法 - Sequential aware: GRU4Rec, Caser - Feature based: NFM, YoutubeDNN - ベースライン - Base: standard softmax loss - LS: label smoothing - 提案手法 - POP+ (item-based) - CSN (user-based) - SKD (model-based) - CKD (model-based) 9
Slide 10
Slide 10 text
実験結果 - RQ1&RQ2 - 提案手法のパフォーマンスが良かった - sequential recommendationの手法の方 がnon-sequential modelより良かった - RQ3 - sampled softmax loss - item sizeがlarge-scaleだとfull softmax lossの計算が大変 - sampledだとfullより全体的に悪いが SoftRecを適用すると改善する - SoftRecはfull softmax lossのときより改善 することがある - hard one-hot targetと違いがないの で 10 出典: Table 2 出典: Figure 5
Slide 11
Slide 11 text
実験結果 - RQ4 - コールドスタート設定における提案手法のパフォーマンス評価 - {GRU4Rec, Caser} x {standard softmax loss, POP+} - t1〜t5の5段階のスパースなデータセットを準備 (t1がもっともインタラクション少 ) - 提案手法はコールドスタート設定のとき改善効果が大きい 11 出典: Table 3
Slide 12
Slide 12 text
実験結果 - hyper-parameter sensitivity analysis - NFM x POP+の結果 - パラメータ: T, α - 上段がMovieLens、下段が Last.FM - 最適なパラメータはデータのス パース性やサイズなどによる 12 出典: Figure 6. Tを変化させたときの結果 出典: Figure 7. αを変化させたときの結果
Slide 13
Slide 13 text
まとめ - Implicit recommender systemにおける多クラス最適化戦略の欠点に着目し、 SoftRecというフレームワークを提案 - well-informedなsoft target lossを使ってhard target lossを補完する - item-based, user-based, model-basedの3つの具体的な手法を提案 - SoftRecは様々なdeep recommender modelsに適用できる汎用性があり、実験 の結果推薦のパフォーマンスを向上させることが確認できた - 特にコールドスタートな設定での改善効果が大きかった 13