Slide 1

Slide 1 text

SDM2020 @cocomoff

Slide 2

Slide 2 text

概要 ( その1) POI (Point-of-Interests) を3 つの情報から推薦するアルゴリズムの提案 ユーザの特徴埋め込みベクトル 過去にチェックインしたPOI の埋め込みベクトル チェックイン時に投稿したテキスト情報 1/14 u l , … , l 1 T s , … , s 1 T

Slide 3

Slide 3 text

概要 ( その2) ⼿法 テキスト情報は⽂字単位で埋め込む 過去のチェックイン履歴からLSTM&MHA で埋め込みを学習する 実験評価 Instagram (2M チェックイン) ,Foursquare (500k チェックイン) 推薦システムの評価指標 Recall@k / MRR が全体的に向上した 2/14

Slide 4

Slide 4 text

実験結果⼀覧 3/14

Slide 5

Slide 5 text

以下詳細

Slide 6

Slide 6 text

問題設定 過去の 回のチェックイン情報から,チェックインスコアを予測する 記号 ユーザの集合 POI の集合 回のチェックイン履歴 予測 地点 のスコア : のときにチェックインしたPOI : のときのチェックインに紐付いたテキスト 4/14 T U P T (C , C , … , C ) 1 2 T l ∈ i L = y i ^ f(l ∣ i C , … , C , u) 1 T C = k (l , s ) k k l k k sk k

Slide 7

Slide 7 text

テキスト情報の埋め込み ( その1) 素のテキスト ("coffee") とハッシュタグ ("cafeandcofee") アイデア1: ハッシュタグは空⽩区切りされていないテキストなので,単 語埋め込みベクトルではなく,⽂字埋め込みベクトルを利⽤する アイデア2: テキスト を⽂字の埋め込みベクトルの列 ( 固定⻑) とする 例: 140 字@Twitter なので,⻑くなくていい ( 設定では256 ⽂字分) 5/14 s

Slide 8

Slide 8 text

テキスト情報の埋め込み ( その2) ネットワーク構造 6/14

Slide 9

Slide 9 text

提案アルゴリズムCAPRE の全体構造 ネットワーク構造 論⽂では式が書いてあるけど,新規性の⾼い構造ではない 7/14

Slide 10

Slide 10 text

評価指標 参考: https://yolo-kiyoshi.com/2019/12/03/post-1557/ Recall@K ユーザが実際に選好したPOI に対して, 推薦した 個のPOI が含まれる割合 MRR (Mean Reciprocal Rank; 平均相互順位) 全ユーザ に対して,ユーザ への推薦のうち何位を選択 したか ( ) ,の逆数の平均 1 位と2 位の差は⼤きい ( と ) 100 位と101 位の差は⼩さい ( と ) 8/14 K MRR = ∣U ∣ 1 ∑u ∈U rank u 1 ∣U ∣ u rank u 1 1 2 1 100 1 101 1

Slide 11

Slide 11 text

提案アルゴリズムCAPRE のいくつかの特徴 スコア の予測に対して,以下の特徴量や⼯夫が⼊っている (A): ユーザの埋め込み特徴 ( 紫⾊) (B): context-aware なユーザの特徴 ( 緑⾊) (C): POI の関係をLSTM で埋め込んだgeographical な特徴 ( オレンジ) (D): テキスト埋め込みにMHA を使った機構 (E): コンテキスト情報埋め込みで使ったアテンション機構 9/14 y

Slide 12

Slide 12 text

提案アルゴリズムCAPRE のablation test 10/14

Slide 13

Slide 13 text

テキスト情報読むためにMHA って必要なんですか? ablation test に追加して,重みを可視化する => 必要っぽい 11/14

Slide 14

Slide 14 text

Geo/Content-aware なアテンション機構ってどうなんですか? ( その1) 典型的な例 ( らしい) (geo) 位置関係として,履歴として近い⽅が重い (ca) バーと似ている内容のレストラン/ カフェが重い 12/14

Slide 15

Slide 15 text

Geo/Content-aware なアテンション機構ってどうなんですか? ( その2) ( 左) チェックイン履歴として近い薬局は重みが⼤きい (ca) の⽅では,コーヒーに近いのはレストラン ( 右) 空港で⾶ぶと考えると,地理的な重みはまばらになっている (ca) の⽅では,ホテルを予想するのに1 つ前の空港が効いてくる 13/14

Slide 16

Slide 16 text

⽂脈依存型推薦システムのcold-start 問題 過去の論⽂で指摘されるようにcold-start が⼤事と知られている 過去の⼿法含め,過去のチェックイン数への依存具合を評価する 14/14