Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文読み会 SDM2020 Content-Aware Successive Point-of-Interest Recommendation

cocomoff
November 05, 2020

論文読み会 SDM2020 Content-Aware Successive Point-of-Interest Recommendation

cocomoff

November 05, 2020
Tweet

More Decks by cocomoff

Other Decks in Research

Transcript

  1. SDM2020
    @cocomoff

    View Slide

  2. 概要 (
    その1)
    POI (Point-of-Interests)
    を3
    つの情報から推薦するアルゴリズムの提案
    ユーザの特徴埋め込みベクトル
    過去にチェックインしたPOI
    の埋め込みベクトル
    チェックイン時に投稿したテキスト情報
    1/14
    u
    l , … , l
    1 T
    s , … , s
    1 T

    View Slide

  3. 概要 (
    その2)
    ⼿法
    テキスト情報は⽂字単位で埋め込む
    過去のチェックイン履歴からLSTM&MHA
    で埋め込みを学習する
    実験評価
    Instagram (2M
    チェックイン)
    ,Foursquare (500k
    チェックイン)
    推薦システムの評価指標 Recall@k / MRR
    が全体的に向上した
    2/14

    View Slide

  4. 実験結果⼀覧 3/14

    View Slide

  5. 以下詳細

    View Slide

  6. 問題設定
    過去の 回のチェックイン情報から,チェックインスコアを予測する
    記号
    ユーザの集合
    POI
    の集合
    回のチェックイン履歴
    予測
    地点 のスコア
    :
    のときにチェックインしたPOI
    :
    のときのチェックインに紐付いたテキスト
    4/14
    T
    U
    P
    T (C , C , … , C )
    1 2 T
    l

    i
    L =
    y i
    ^ f(l

    i
    C , … , C , u)
    1 T
    C =
    k (l , s )
    k k
    l k
    k
    sk
    k

    View Slide

  7. テキスト情報の埋め込み (
    その1)
    素のテキスト ("coffee")
    とハッシュタグ ("cafeandcofee")
    アイデア1:
    ハッシュタグは空⽩区切りされていないテキストなので,単
    語埋め込みベクトルではなく,⽂字埋め込みベクトルを利⽤する
    アイデア2:
    テキスト を⽂字の埋め込みベクトルの列 (
    固定⻑)
    とする
    例: 140
    字@Twitter
    なので,⻑くなくていい (
    設定では256
    ⽂字分)
    5/14
    s

    View Slide

  8. テキスト情報の埋め込み (
    その2)
    ネットワーク構造
    6/14

    View Slide

  9. 提案アルゴリズムCAPRE
    の全体構造
    ネットワーク構造
    論⽂では式が書いてあるけど,新規性の⾼い構造ではない
    7/14

    View Slide

  10. 評価指標
    参考: https://yolo-kiyoshi.com/2019/12/03/post-1557/
    Recall@K
    ユーザが実際に選好したPOI
    に対して,
    推薦した 個のPOI
    が含まれる割合
    MRR (Mean Reciprocal Rank;
    平均相互順位)
    全ユーザ に対して,ユーザ への推薦のうち何位を選択
    したか ( )
    ,の逆数の平均
    1
    位と2
    位の差は⼤きい (
    と )
    100
    位と101
    位の差は⼩さい (
    と )
    8/14
    K
    MRR = ∣U

    1 ∑u
    ∈U rank u
    1
    ∣U
    ∣ u
    rank u
    1
    1
    2
    1
    100
    1
    101
    1

    View Slide

  11. 提案アルゴリズムCAPRE
    のいくつかの特徴
    スコア の予測に対して,以下の特徴量や⼯夫が⼊っている
    (A):
    ユーザの埋め込み特徴 (
    紫⾊)
    (B): context-aware
    なユーザの特徴 (
    緑⾊)
    (C): POI
    の関係をLSTM
    で埋め込んだgeographical
    な特徴 (
    オレンジ)
    (D):
    テキスト埋め込みにMHA
    を使った機構
    (E):
    コンテキスト情報埋め込みで使ったアテンション機構
    9/14
    y

    View Slide

  12. 提案アルゴリズムCAPRE
    のablation test 10/14

    View Slide

  13. テキスト情報読むためにMHA
    って必要なんですか?
    ablation test
    に追加して,重みを可視化する =>
    必要っぽい
    11/14

    View Slide

  14. Geo/Content-aware
    なアテンション機構ってどうなんですか? (
    その1)
    典型的な例 (
    らしい)
    (geo)
    位置関係として,履歴として近い⽅が重い
    (ca)
    バーと似ている内容のレストラン/
    カフェが重い
    12/14

    View Slide

  15. Geo/Content-aware
    なアテンション機構ってどうなんですか? (
    その2)
    (
    左)
    チェックイン履歴として近い薬局は重みが⼤きい
    (ca)
    の⽅では,コーヒーに近いのはレストラン
    (
    右)
    空港で⾶ぶと考えると,地理的な重みはまばらになっている
    (ca)
    の⽅では,ホテルを予想するのに1
    つ前の空港が効いてくる
    13/14

    View Slide

  16. ⽂脈依存型推薦システムのcold-start
    問題
    過去の論⽂で指摘されるようにcold-start
    が⼤事と知られている
    過去の⼿法含め,過去のチェックイン数への依存具合を評価する
    14/14

    View Slide