Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文紹介: Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement (SIGIR’21)

Yosuke Saito
October 30, 2021

論文紹介: Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement (SIGIR’21)

IR Reading 2021 秋での論文紹介で使用した資料です。
https://sigir.jp/post/2021-10-30-irreading_2021fall

発表した論文
Cheng, Mingyue, Fajie Yuan, Qi Liu, Shenyang Ge, Zhi Li, Runlong Yu, Defu Lian, Senchao Yuan, and Enhong Chen. 2021. “Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement.” In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval, 575–84. SIGIR ’21. New York, NY, USA: Association for Computing Machinery.

Yosuke Saito

October 30, 2021
Tweet

More Decks by Yosuke Saito

Other Decks in Research

Transcript

  1. Learning Recommender Systems with Implicit Feedback via Soft Target Enhancement

    (SIGIR’21) Mingyue Cheng, Fajie Yuan, Qi Liu, Shenyang Ge, Zhi Li, Runlong Yu, Defu Lian, Senchao Yuan, Enhong Chen 京都大学 吉川・馬研究室 D1 斎藤 陽介
  2. 研究背景 - implicit feedbackのitem recommendationでdeep learningが使われるようになっ てきた - deep recommender

    modelではloss functionをどう定式化するか・最適化をどう実 行するかがチャレンジの1つ - 教師あり機械学習の場合のitem recommendationでは、主に3つの方法がある - pointwise loss - pairwise loss - softmax loss - softmax lossはcomputer visionやNLPで広く採用されており、そのシンプルさから 最近推薦でも使われるようになってきた 2
  3. 研究背景 - 典型的なsoftmax lossはimplicit feedbackを扱う場合明らかな欠点が ある - missing feedbackのambiguityを無視 →

    dislikeではなく単なる欠落データ の可能性 - この問題自体は新しいquestionでは ないが、softmax lossについてこれま で研究されてこなかった 3 出典: Figure 1
  4. 提案手法 - アイデア: 追加のsoft targetsを組み込んで original hard targetsを滑らかにする - well-informed

    soft targetsの定義 - soft target ∈ [0,1] - 合計が1 - argmaxがoriginal hard targetのitemと一致 - 3つの戦略: item-based, user-based, model-based 4 0 1 0 0 0 0 0 0 0.1 0.3 0.01 0.2 0.1 0.02 0.24 0.03 0.05 0.5 0.01 0.2 0.01 0.01 0.2 0.02 model outputs original hard targets soft targets match match hard targets model outputs soft targets 元のoptimization objective
  5. 提案手法 - Item-Based Strategy - clicking frequencyなどのitemのpopularityを使って分布を作る - 人気の方が好まれやすいので、 normalizedしたpopularity

    distributionは学習に有益なはず - そのまま適用すると well-informed soft targetsの定義に違反するので、少し変更を加える 5 normalized popularity distribution
  6. 提案手法 - User-Based Strategy - personalizedされた分布 - neighborhoodの情報を使う - 1.

    どうやってneighborhoodの情報を得るか - historical interactionsとitem2vecでuser ごとのembeddingを作成 - cosine similarityの近いuserを neiborhoodと判定 - 2. どうやってモデル化するか - collaborative siamese network(CSN) - neighborhoodのpredictionsとの距離が 近くなるようにパラメータを学習 6 出典: Figure 3
  7. 提案手法 - Model-Based Strategy - Knowledge Distillationを使う - Self Knowledge

    Distillation(SKD): teacher networkとstudent networkと同 じにする - Cross-architecture Knowledge Distillation(CKD): teacher networkと student networkと別にする 7 出典: Figure 4
  8. 実験 - リサーチクエスチョン - 1. 提案手法は推薦モデルの accuracyを高めるか? - 2. 提案手法は汎用的か?

    - 3. 提案手法はsampled softmax lossにも適しているか? - 4. コールドスタート設定での提案手法のパフォーマンスはどうか? - データセット - MovieLens - Last.FM - 評価指標(K = 10) - MRR@K - NDCG@K - Recall@K 8
  9. 実験 - 4つの推薦モデルに対し提案手法を適用し、ベースラインと比較 - 推薦手法 - Sequential aware: GRU4Rec, Caser

    - Feature based: NFM, YoutubeDNN - ベースライン - Base: standard softmax loss - LS: label smoothing - 提案手法 - POP+ (item-based) - CSN (user-based) - SKD (model-based) - CKD (model-based) 9
  10. 実験結果 - RQ1&RQ2 - 提案手法のパフォーマンスが良かった - sequential recommendationの手法の方 がnon-sequential modelより良かった

    - RQ3 - sampled softmax loss - item sizeがlarge-scaleだとfull softmax lossの計算が大変 - sampledだとfullより全体的に悪いが SoftRecを適用すると改善する - SoftRecはfull softmax lossのときより改善 することがある - hard one-hot targetと違いがないの で 10 出典: Table 2 出典: Figure 5
  11. 実験結果 - RQ4 - コールドスタート設定における提案手法のパフォーマンス評価 - {GRU4Rec, Caser} x {standard

    softmax loss, POP+} - t1〜t5の5段階のスパースなデータセットを準備 (t1がもっともインタラクション少 ) - 提案手法はコールドスタート設定のとき改善効果が大きい 11 出典: Table 3
  12. 実験結果 - hyper-parameter sensitivity analysis - NFM x POP+の結果 -

    パラメータ: T, α - 上段がMovieLens、下段が Last.FM - 最適なパラメータはデータのス パース性やサイズなどによる 12 出典: Figure 6. Tを変化させたときの結果 出典: Figure 7. αを変化させたときの結果
  13. まとめ - Implicit recommender systemにおける多クラス最適化戦略の欠点に着目し、 SoftRecというフレームワークを提案 - well-informedなsoft target lossを使ってhard

    target lossを補完する - item-based, user-based, model-basedの3つの具体的な手法を提案 - SoftRecは様々なdeep recommender modelsに適用できる汎用性があり、実験 の結果推薦のパフォーマンスを向上させることが確認できた - 特にコールドスタートな設定での改善効果が大きかった 13