$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文読み会 SDM2020 Content-Aware Successive Point-of...
Search
cocomoff
November 05, 2020
Research
0
91
論文読み会 SDM2020 Content-Aware Successive Point-of-Interest Recommendation
cocomoff
November 05, 2020
Tweet
Share
More Decks by cocomoff
See All by cocomoff
論文読み会 NeurIPS2024 | UrbanKGent: A Unified Large Language Model Agent Framework for Urban Knowledge Graph Construction
cocomoff
1
78
論文読み会 AMAI | Personalized choice prediction with less user information
cocomoff
0
63
論文読み会 KDD2024 | Relevance meets Diversity: A User-Centric Framework for Knowledge Exploration through Recommendations
cocomoff
0
250
論文読み会 KDD2022 | Multi-Behavior Hypergraph-Enhanced Transformer for Sequential Recommendation
cocomoff
0
140
論文読み会 AISTATS2024 | Deep Learning-Based Alternative Route Computation
cocomoff
0
49
論文読み会 AAAI2021 | Knowledge-Enhanced Top-K Recommendation in Poincaré Ball
cocomoff
0
90
論文読み会 WWW2022 | Learning Probabilistic Box Embeddings for Effective and Efficient Ranking
cocomoff
0
310
ClimaX: A foundation model for weather and climate
cocomoff
0
600
論文読み会 AAAI2022 | MIP-GNN: A Data-Driven Framework for Guiding Combinatorial Solvers
cocomoff
0
250
Other Decks in Research
See All in Research
教師あり学習と強化学習で作る 最強の数学特化LLM
analokmaus
2
710
HoliTracer:Holistic Vectorization of Geographic Objects from Large-Size Remote Sensing Imagery
satai
3
310
Stealing LUKS Keys via TPM and UUID Spoofing in 10 Minutes - BSides 2025
anykeyshik
0
170
一人称視点映像解析の最先端(MIRU2025 チュートリアル)
takumayagi
6
4.3k
CoRL2025速報
rpc
2
3.5k
MIRU2025 チュートリアル講演「ロボット基盤モデルの最前線」
haraduka
15
11k
"主観で終わらせない"定性データ活用 ― プロダクトディスカバリーを加速させるインサイトマネジメント / Utilizing qualitative data that "doesn't end with subjectivity" - Insight management that accelerates product discovery
kaminashi
14
14k
AWSで実現した大規模日本語VLM学習用データセット "MOMIJI" 構築パイプライン/buiding-momiji
studio_graph
2
990
「どう育てるか」より「どう働きたいか」〜スクラムマスターの最初の一歩〜
hirakawa51
0
1k
20250725-bet-ai-day
cipepser
3
550
大規模言語モデルにおけるData-Centric AIと合成データの活用 / Data-Centric AI and Synthetic Data in Large Language Models
tsurubee
1
440
Combining Deep Learning and Street View Imagery to Map Smallholder Crop Types
satai
3
270
Featured
See All Featured
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
141
34k
A Tale of Four Properties
chriscoyier
162
23k
XXLCSS - How to scale CSS and keep your sanity
sugarenia
249
1.3M
Git: the NoSQL Database
bkeepers
PRO
432
66k
How to Ace a Technical Interview
jacobian
280
24k
The Invisible Side of Design
smashingmag
302
51k
Build The Right Thing And Hit Your Dates
maggiecrowley
38
3k
Improving Core Web Vitals using Speculation Rules API
sergeychernyshev
21
1.3k
Building Adaptive Systems
keathley
44
2.9k
Code Reviewing Like a Champion
maltzj
527
40k
Navigating Team Friction
lara
191
16k
Rails Girls Zürich Keynote
gr2m
95
14k
Transcript
SDM2020 @cocomoff
概要 ( その1) POI (Point-of-Interests) を3 つの情報から推薦するアルゴリズムの提案 ユーザの特徴埋め込みベクトル 過去にチェックインしたPOI の埋め込みベクトル
チェックイン時に投稿したテキスト情報 1/14 u l , … , l 1 T s , … , s 1 T
概要 ( その2) ⼿法 テキスト情報は⽂字単位で埋め込む 過去のチェックイン履歴からLSTM&MHA で埋め込みを学習する 実験評価 Instagram (2M
チェックイン) ,Foursquare (500k チェックイン) 推薦システムの評価指標 Recall@k / MRR が全体的に向上した 2/14
実験結果⼀覧 3/14
以下詳細
問題設定 過去の 回のチェックイン情報から,チェックインスコアを予測する 記号 ユーザの集合 POI の集合 回のチェックイン履歴 予測 地点
のスコア : のときにチェックインしたPOI : のときのチェックインに紐付いたテキスト 4/14 T U P T (C , C , … , C ) 1 2 T l ∈ i L = y i ^ f(l ∣ i C , … , C , u) 1 T C = k (l , s ) k k l k k sk k
テキスト情報の埋め込み ( その1) 素のテキスト ("coffee") とハッシュタグ ("cafeandcofee") アイデア1: ハッシュタグは空⽩区切りされていないテキストなので,単 語埋め込みベクトルではなく,⽂字埋め込みベクトルを利⽤する
アイデア2: テキスト を⽂字の埋め込みベクトルの列 ( 固定⻑) とする 例: 140 字@Twitter なので,⻑くなくていい ( 設定では256 ⽂字分) 5/14 s
テキスト情報の埋め込み ( その2) ネットワーク構造 6/14
提案アルゴリズムCAPRE の全体構造 ネットワーク構造 論⽂では式が書いてあるけど,新規性の⾼い構造ではない 7/14
評価指標 参考: https://yolo-kiyoshi.com/2019/12/03/post-1557/ Recall@K ユーザが実際に選好したPOI に対して, 推薦した 個のPOI が含まれる割合 MRR
(Mean Reciprocal Rank; 平均相互順位) 全ユーザ に対して,ユーザ への推薦のうち何位を選択 したか ( ) ,の逆数の平均 1 位と2 位の差は⼤きい ( と ) 100 位と101 位の差は⼩さい ( と ) 8/14 K MRR = ∣U ∣ 1 ∑u ∈U rank u 1 ∣U ∣ u rank u 1 1 2 1 100 1 101 1
提案アルゴリズムCAPRE のいくつかの特徴 スコア の予測に対して,以下の特徴量や⼯夫が⼊っている (A): ユーザの埋め込み特徴 ( 紫⾊) (B): context-aware
なユーザの特徴 ( 緑⾊) (C): POI の関係をLSTM で埋め込んだgeographical な特徴 ( オレンジ) (D): テキスト埋め込みにMHA を使った機構 (E): コンテキスト情報埋め込みで使ったアテンション機構 9/14 y
提案アルゴリズムCAPRE のablation test 10/14
テキスト情報読むためにMHA って必要なんですか? ablation test に追加して,重みを可視化する => 必要っぽい 11/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その1) 典型的な例 ( らしい) (geo) 位置関係として,履歴として近い⽅が重い (ca)
バーと似ている内容のレストラン/ カフェが重い 12/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その2) ( 左) チェックイン履歴として近い薬局は重みが⼤きい (ca) の⽅では,コーヒーに近いのはレストラン (
右) 空港で⾶ぶと考えると,地理的な重みはまばらになっている (ca) の⽅では,ホテルを予想するのに1 つ前の空港が効いてくる 13/14
⽂脈依存型推薦システムのcold-start 問題 過去の論⽂で指摘されるようにcold-start が⼤事と知られている 過去の⼿法含め,過去のチェックイン数への依存具合を評価する 14/14