Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
論文読み会 SDM2020 Content-Aware Successive Point-of...
Search
cocomoff
November 05, 2020
Research
0
76
論文読み会 SDM2020 Content-Aware Successive Point-of-Interest Recommendation
cocomoff
November 05, 2020
Tweet
Share
More Decks by cocomoff
See All by cocomoff
論文読み会 NeurIPS2024 | UrbanKGent: A Unified Large Language Model Agent Framework for Urban Knowledge Graph Construction
cocomoff
1
21
論文読み会 AMAI | Personalized choice prediction with less user information
cocomoff
0
34
論文読み会 KDD2024 | Relevance meets Diversity: A User-Centric Framework for Knowledge Exploration through Recommendations
cocomoff
0
200
論文読み会 KDD2022 | Multi-Behavior Hypergraph-Enhanced Transformer for Sequential Recommendation
cocomoff
0
90
論文読み会 AISTATS2024 | Deep Learning-Based Alternative Route Computation
cocomoff
0
35
論文読み会 AAAI2021 | Knowledge-Enhanced Top-K Recommendation in Poincaré Ball
cocomoff
0
64
論文読み会 WWW2022 | Learning Probabilistic Box Embeddings for Effective and Efficient Ranking
cocomoff
0
270
ClimaX: A foundation model for weather and climate
cocomoff
0
550
論文読み会 AAAI2022 | MIP-GNN: A Data-Driven Framework for Guiding Combinatorial Solvers
cocomoff
0
200
Other Decks in Research
See All in Research
Remote Sensing Vision-Language Foundation Models without Annotations via Ground Remote Alignment
satai
3
390
90 分で学ぶ P 対 NP 問題
e869120
15
6.5k
[輪講] Transformer Layers as Painters
nk35jk
4
750
インドネシアのQA事情を紹介するの
yujijs
0
180
サーブレシーブ成功率は勝敗に影響するか?
vball_panda
0
620
Weekly AI Agents News! 2月号 アーカイブ
masatoto
1
150
Collaborative Development of Foundation Models at Japanese Academia
odashi
2
520
NLP2025 WS Shared Task 文法誤り訂正部門 ehiMetrick
sugiyamaseiji
0
160
PhD Defence: Considering Temporal and Contextual Information for Lexical Semantic Change Detection
a1da4
0
150
DeepSeek-R1の論文から読み解く背景技術
personabb
3
550
ドローンやICTを活用した持続可能なまちづくりに関する研究
nro2daisuke
0
200
小ねぎ調製位置検出のためのインスタンスセグメンテーション
takuto_andtt
0
120
Featured
See All Featured
What's in a price? How to price your products and services
michaelherold
245
12k
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.2k
Docker and Python
trallard
44
3.3k
Evolution of real-time – Irina Nazarova, EuRuKo, 2024
irinanazarova
8
670
GitHub's CSS Performance
jonrohan
1030
460k
How to train your dragon (web standard)
notwaldorf
90
6k
Site-Speed That Sticks
csswizardry
5
500
The Cult of Friendly URLs
andyhume
78
6.3k
Responsive Adventures: Dirty Tricks From The Dark Corners of Front-End
smashingmag
251
21k
Side Projects
sachag
452
42k
CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again
sstephenson
160
15k
Improving Core Web Vitals using Speculation Rules API
sergeychernyshev
13
680
Transcript
SDM2020 @cocomoff
概要 ( その1) POI (Point-of-Interests) を3 つの情報から推薦するアルゴリズムの提案 ユーザの特徴埋め込みベクトル 過去にチェックインしたPOI の埋め込みベクトル
チェックイン時に投稿したテキスト情報 1/14 u l , … , l 1 T s , … , s 1 T
概要 ( その2) ⼿法 テキスト情報は⽂字単位で埋め込む 過去のチェックイン履歴からLSTM&MHA で埋め込みを学習する 実験評価 Instagram (2M
チェックイン) ,Foursquare (500k チェックイン) 推薦システムの評価指標 Recall@k / MRR が全体的に向上した 2/14
実験結果⼀覧 3/14
以下詳細
問題設定 過去の 回のチェックイン情報から,チェックインスコアを予測する 記号 ユーザの集合 POI の集合 回のチェックイン履歴 予測 地点
のスコア : のときにチェックインしたPOI : のときのチェックインに紐付いたテキスト 4/14 T U P T (C , C , … , C ) 1 2 T l ∈ i L = y i ^ f(l ∣ i C , … , C , u) 1 T C = k (l , s ) k k l k k sk k
テキスト情報の埋め込み ( その1) 素のテキスト ("coffee") とハッシュタグ ("cafeandcofee") アイデア1: ハッシュタグは空⽩区切りされていないテキストなので,単 語埋め込みベクトルではなく,⽂字埋め込みベクトルを利⽤する
アイデア2: テキスト を⽂字の埋め込みベクトルの列 ( 固定⻑) とする 例: 140 字@Twitter なので,⻑くなくていい ( 設定では256 ⽂字分) 5/14 s
テキスト情報の埋め込み ( その2) ネットワーク構造 6/14
提案アルゴリズムCAPRE の全体構造 ネットワーク構造 論⽂では式が書いてあるけど,新規性の⾼い構造ではない 7/14
評価指標 参考: https://yolo-kiyoshi.com/2019/12/03/post-1557/ Recall@K ユーザが実際に選好したPOI に対して, 推薦した 個のPOI が含まれる割合 MRR
(Mean Reciprocal Rank; 平均相互順位) 全ユーザ に対して,ユーザ への推薦のうち何位を選択 したか ( ) ,の逆数の平均 1 位と2 位の差は⼤きい ( と ) 100 位と101 位の差は⼩さい ( と ) 8/14 K MRR = ∣U ∣ 1 ∑u ∈U rank u 1 ∣U ∣ u rank u 1 1 2 1 100 1 101 1
提案アルゴリズムCAPRE のいくつかの特徴 スコア の予測に対して,以下の特徴量や⼯夫が⼊っている (A): ユーザの埋め込み特徴 ( 紫⾊) (B): context-aware
なユーザの特徴 ( 緑⾊) (C): POI の関係をLSTM で埋め込んだgeographical な特徴 ( オレンジ) (D): テキスト埋め込みにMHA を使った機構 (E): コンテキスト情報埋め込みで使ったアテンション機構 9/14 y
提案アルゴリズムCAPRE のablation test 10/14
テキスト情報読むためにMHA って必要なんですか? ablation test に追加して,重みを可視化する => 必要っぽい 11/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その1) 典型的な例 ( らしい) (geo) 位置関係として,履歴として近い⽅が重い (ca)
バーと似ている内容のレストラン/ カフェが重い 12/14
Geo/Content-aware なアテンション機構ってどうなんですか? ( その2) ( 左) チェックイン履歴として近い薬局は重みが⼤きい (ca) の⽅では,コーヒーに近いのはレストラン (
右) 空港で⾶ぶと考えると,地理的な重みはまばらになっている (ca) の⽅では,ホテルを予想するのに1 つ前の空港が効いてくる 13/14
⽂脈依存型推薦システムのcold-start 問題 過去の論⽂で指摘されるようにcold-start が⼤事と知られている 過去の⼿法含め,過去のチェックイン数への依存具合を評価する 14/14