Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[IR Reading 2021秋 論文紹介] Fairness among New Items in Cold Start Recommender Systems (SIGIR 2021) /IR-Reading-2021-fall

Kohei Shinden
October 30, 2021

[IR Reading 2021秋 論文紹介] Fairness among New Items in Cold Start Recommender Systems (SIGIR 2021) /IR-Reading-2021-fall

Published on Oct 30, 2021
IR Reading 2021秋(オンライン) 開催案内 - ACM SIGIR 東京支部: https://sigir.jp/post/2021-10-30-irreading_2021fall/
論文:
https://dl.acm.org/doi/abs/10.1145/3404835.3462948
http://people.tamu.edu/~zhuziwei/pubs/Ziwei_SIGIR_2021.pdf

Kohei Shinden

October 30, 2021
Tweet

More Decks by Kohei Shinden

Other Decks in Research

Transcript

  1. [論⽂紹介] Fairness among New Items in Cold Start Recommender Systems

    Ziwei Zhu1, Jingu Kim2, Trung Nguyen2, Aish Fenton2, James Caverlee1 1 Texas A&M University, 2 Netflix SIGIR 2021 論⽂紹介する⼈ 筑波⼤学加藤研究室 新⽥洸平 https://sites.google.com/view/kohei-shinden ※スライド中の図は論⽂より引⽤ 2021年10⽉30⽇ IR Reading 2021 秋 セッション 2 No.2
  2. • コールドスタート推薦における 新規アイテム間の公平性を向上させる⼿法の提案 どんな論⽂? 2 既存研究ではウォームスタートでの公平性 既存⼿法 提案⼿法 主な貢献 •

    コールドスタート推薦における新規ア イテム間の不公平問題を調査 • 新規アイテム間の公平性を向上させる フレームワークと2つのモデルを提案 • 提案モデルが推薦の公平性を⾼めつつ ユーティリティを維持する有効性があ ることを実験で⽰した ユーザのフィードバックがない状態
  3. 既存のコールドスタート推薦では公平性が考慮されていない 背景: コールドスタート推薦 • ユーザからのフィードバックなしに新規アイテムを推薦 Separate-training ⼿法 2つのモデルを分離して学習 Joint-training ⼿法

    2つのモデルを結合して学習 協調フィルタ リング埋め込み コンテンツ 埋め込み U " V ユーザベクトル U アイテムベクトル V 新規アイテム ユーザ ウォームスタートアイテムで学習 協調フィルタ リング埋め込み コンテンツ 変換モデル ベクトル 新規アイテム ユーザ ウォームスタート アイテムで学習 推薦に利⽤ 予測スコア 例 例 ウォームスタート アイテムで学習
  4. • コールドスタート推薦の後処理としてアイテムの公平性を 考慮したリランキングを⾏うフレームワーク ‒ 後処理のメリット: コールドスタート推薦モデルを学習し直すコストが無い 提案⼿法 6 Heate, DropoutNet,

    DeepMusic, KNN etc. 1. 元の推薦⼿法 2. アイテムをリランキングする オートエンコーダ 3. オートエンコーダの学習に 公平性を導⼊ 要件2 公平性を向上するために以下の要件を設定 要件1. 予測スコアが低いアイテムを最も予測スコアが⾼いアイテムに近づける 要件2. すべてのユーザに対するアイテムの予測スコアを平等にする
  5. • 予測スコアが低いアイテムを最も予測スコアが⾼いアイテムに近づ けるための2つのモデルを提案 具体的な公平性向上モデル 7 アイテムの⽬標となる スコア分布の⽣成 3つのアイテムの スコア分布の例 スコアが低いアイテム

    スコアが⾼いアイテム スコアの低いアイテムを⽣成モデルの 出⼒である⽬標となる分布に近づくように学習 Popularity bias に対処する 既存⼿法を応⽤(ベースライン) ⼈気なアイテムのスコアをダウンスケール 不⼈気なアイテムのスコアをアップスケール
  6. • RQ1: 公平性向上のパフォーマンス, RQ2: モデルのハイパーパラーメータの影響, RQ3: グループレベルの公平性への影響について検証 • 評価指標: nDCG,

    MDG(MDG-min10%, MDG-min20%, MDG-max10%) • データセット: ML1M, ML20M, CiteULike, XING • ベースライン: Heter, DropoutNet, DeepMusic, KNN, Scale(提案⼿法), Noise(ランダムノイズを加える⼿法) • 再現性: https://github.com/Zziwei/Fairness-in-Cold-Start-Recommendation 実験内容 8 𝜹(𝒙): 𝒙 が真であれば 𝟏, 違えば 𝟎 𝑀𝐷𝐺𝒊 = 0: アイテムがマッチした全てのユーザに推薦されない 𝑀𝐷𝐺𝒊 = 1: アイテムがマッチした全てのユーザに1位で推薦される 新規アイテムの真の陽性率を計算,評価値が⼤きいほどシステムがより公平であることを⽰す
  7. • Gen は Scale や他のベースラインと⽐較して新規アイテムの 公平性を⾼めてユーティリティを維持するのか?→ Yes 実験結果: RQ1 公平性向上のパフォーマンス

    9 低下 向上 向上 低下 • ユーティリティは多少下がるものの維持できている 範囲であり全体の公平性が向上したと結論づけ • ⽐較⼿法である Heater ではほとんど公平性がなかっ たアイテムに対して公平性を⼤幅に改善 また,単なる Noise はそこまで公平性が向上しない
  8. • 2つの提案⼿法におけるハイパーパラメータの影響は? →パラメータを⼤きくすると公平性向上⼒が⾼まる 実験結果: RQ2 ハイパーパラメータの影響 10 • 単純な Noise

    ⼿法より Gen, Scale はユーティリティが⾼く維持されており, 公平性向上の効果も⼤幅に⼤きいことがわかる →Noise よりも Gen, Scale がより優れていると⾔える
  9. まとめ 12 ウォームスタート推薦における アイテムの公平性の研究が⾏わ れてきた 課題: コールドスタート推薦にお ける公平性を考慮した⼿法は まだ提案されていない ⽬的:

    コールドスタート推薦にお ける公平性を⾼める⼿法の提案 コールドスタート推薦の後処理 フレームワークと具体的な2つ の公平性向上モデル(Gen, Scale)の提案 RQ1: 公平性向上のパフォーマンス →ユーティリティは多少下がるもの の維持できている範囲であり公平性 は⼤幅に向上することを確認 RQ2: モデルのハイパーパラーメー タの影響 →パラメータを⼤きくすることでモ デルの公平性を⾼めることを確認, Noise よりも Gen, Scale が⼤幅に 向上 RQ3: グループレベルの公平性への 影響 →個々のアイテム間の公平性のみで はなくグループ間の公平性も向上す ることを確認 背景 課題と⽬的 提案⼿法 実験結果
  10. • Gen は Scale や他のベースラインと⽐較して新規アイテムの公平 性をどのように⾼めてユーティリティを維持するのか? 実験結果: RQ1 公平性向上のパフォーマンス 14

    低下 向上 向上 低下 • 4つのデータセットを利⽤した実験でも ユーティリティは多少下がるものの維持 できている範囲であり全体の公平性が向上