Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文読み会 SDM2020 Content-Aware Successive Point-of...
Search
cocomoff
November 05, 2020
Research
0
72
論文読み会 SDM2020 Content-Aware Successive Point-of-Interest Recommendation
cocomoff
November 05, 2020
Tweet
Share
More Decks by cocomoff
See All by cocomoff
論文読み会 AMAI | Personalized choice prediction with less user information
cocomoff
0
13
論文読み会 KDD2024 | Relevance meets Diversity: A User-Centric Framework for Knowledge Exploration through Recommendations
cocomoff
0
160
論文読み会 KDD2022 | Multi-Behavior Hypergraph-Enhanced Transformer for Sequential Recommendation
cocomoff
0
70
論文読み会 AISTATS2024 | Deep Learning-Based Alternative Route Computation
cocomoff
0
29
論文読み会 AAAI2021 | Knowledge-Enhanced Top-K Recommendation in Poincaré Ball
cocomoff
0
58
論文読み会 WWW2022 | Learning Probabilistic Box Embeddings for Effective and Efficient Ranking
cocomoff
0
260
ClimaX: A foundation model for weather and climate
cocomoff
0
520
論文読み会 AAAI2022 | MIP-GNN: A Data-Driven Framework for Guiding Combinatorial Solvers
cocomoff
0
180
論文読み会 EMNLP2021 | Decision-Focused Summarization
cocomoff
0
180
Other Decks in Research
See All in Research
IM2024
mamoruk
0
220
ソフトウェア研究における脅威モデリング
laysakura
0
1.5k
20241115都市交通決起集会 趣旨説明・熊本事例紹介
trafficbrain
0
980
Whoisの闇
hirachan
3
280
博士学位論文予備審査 / Scaling Telemetry Workloads in Cloud Applications: Techniques for Instrumentation, Storage, and Mining
yuukit
1
1.7k
医療支援AI開発における臨床と情報学の連携を円滑に進めるために
moda0
0
150
論文紹介: COSMO: A Large-Scale E-commerce Common Sense Knowledge Generation and Serving System at Amazon (SIGMOD 2024)
ynakano
1
380
Large Vision Language Model (LVLM) に関する最新知見まとめ (Part 1)
onely7
24
5.8k
PhD Defence: Considering Temporal and Contextual Information for Lexical Semantic Change Detection
a1da4
0
110
Remote Sensing Vision-Language Foundation Models without Annotations via Ground Remote Alignment
satai
2
120
コミュニティドライブプロジェクト
smartfukushilab1
0
180
Bluesky Game Dev
trezy
0
140
Featured
See All Featured
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
33
2.8k
The Invisible Side of Design
smashingmag
299
50k
Fontdeck: Realign not Redesign
paulrobertlloyd
83
5.4k
Fireside Chat
paigeccino
34
3.2k
Bash Introduction
62gerente
611
210k
Music & Morning Musume
bryan
46
6.3k
Statistics for Hackers
jakevdp
797
220k
The World Runs on Bad Software
bkeepers
PRO
67
11k
Imperfection Machines: The Place of Print at Facebook
scottboms
267
13k
Intergalactic Javascript Robots from Outer Space
tanoku
270
27k
Fantastic passwords and where to find them - at NoRuKo
philnash
51
3k
Reflections from 52 weeks, 52 projects
jeffersonlam
348
20k
Transcript
SDM2020 @cocomoff
概要 ( その1) POI (Point-of-Interests) を3 つの情報から推薦するアルゴリズムの提案 ユーザの特徴埋め込みベクトル 過去にチェックインしたPOI の埋め込みベクトル
チェックイン時に投稿したテキスト情報 1/14 u l , … , l 1 T s , … , s 1 T
概要 ( その2) ⼿法 テキスト情報は⽂字単位で埋め込む 過去のチェックイン履歴からLSTM&MHA で埋め込みを学習する 実験評価 Instagram (2M
チェックイン) ,Foursquare (500k チェックイン) 推薦システムの評価指標 Recall@k / MRR が全体的に向上した 2/14
実験結果⼀覧 3/14
以下詳細
問題設定 過去の 回のチェックイン情報から,チェックインスコアを予測する 記号 ユーザの集合 POI の集合 回のチェックイン履歴 予測 地点
のスコア : のときにチェックインしたPOI : のときのチェックインに紐付いたテキスト 4/14 T U P T (C , C , … , C ) 1 2 T l ∈ i L = y i ^ f(l ∣ i C , … , C , u) 1 T C = k (l , s ) k k l k k sk k
テキスト情報の埋め込み ( その1) 素のテキスト ("coffee") とハッシュタグ ("cafeandcofee") アイデア1: ハッシュタグは空⽩区切りされていないテキストなので,単 語埋め込みベクトルではなく,⽂字埋め込みベクトルを利⽤する
アイデア2: テキスト を⽂字の埋め込みベクトルの列 ( 固定⻑) とする 例: 140 字@Twitter なので,⻑くなくていい ( 設定では256 ⽂字分) 5/14 s
テキスト情報の埋め込み ( その2) ネットワーク構造 6/14
提案アルゴリズムCAPRE の全体構造 ネットワーク構造 論⽂では式が書いてあるけど,新規性の⾼い構造ではない 7/14
評価指標 参考: https://yolo-kiyoshi.com/2019/12/03/post-1557/ Recall@K ユーザが実際に選好したPOI に対して, 推薦した 個のPOI が含まれる割合 MRR
(Mean Reciprocal Rank; 平均相互順位) 全ユーザ に対して,ユーザ への推薦のうち何位を選択 したか ( ) ,の逆数の平均 1 位と2 位の差は⼤きい ( と ) 100 位と101 位の差は⼩さい ( と ) 8/14 K MRR = ∣U ∣ 1 ∑u ∈U rank u 1 ∣U ∣ u rank u 1 1 2 1 100 1 101 1
提案アルゴリズムCAPRE のいくつかの特徴 スコア の予測に対して,以下の特徴量や⼯夫が⼊っている (A): ユーザの埋め込み特徴 ( 紫⾊) (B): context-aware
なユーザの特徴 ( 緑⾊) (C): POI の関係をLSTM で埋め込んだgeographical な特徴 ( オレンジ) (D): テキスト埋め込みにMHA を使った機構 (E): コンテキスト情報埋め込みで使ったアテンション機構 9/14 y
提案アルゴリズムCAPRE のablation test 10/14
テキスト情報読むためにMHA って必要なんですか? ablation test に追加して,重みを可視化する => 必要っぽい 11/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その1) 典型的な例 ( らしい) (geo) 位置関係として,履歴として近い⽅が重い (ca)
バーと似ている内容のレストラン/ カフェが重い 12/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その2) ( 左) チェックイン履歴として近い薬局は重みが⼤きい (ca) の⽅では,コーヒーに近いのはレストラン (
右) 空港で⾶ぶと考えると,地理的な重みはまばらになっている (ca) の⽅では,ホテルを予想するのに1 つ前の空港が効いてくる 13/14
⽂脈依存型推薦システムのcold-start 問題 過去の論⽂で指摘されるようにcold-start が⼤事と知られている 過去の⼿法含め,過去のチェックイン数への依存具合を評価する 14/14