$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
[論文紹介]User-Level Sentiment AnalysisIncorporati...
Search
ysekky
February 18, 2015
Research
0
360
[論文紹介]User-Level Sentiment Analysis Incorporating Social Network (KDD2011)
ysekky
February 18, 2015
Tweet
Share
More Decks by ysekky
See All by ysekky
スタートアップの開発サイクルに学ぶ 研究活動の進め方 / research practices inspired by startup business strategy
ysekky
0
2.3k
[論文紹介] A Method to Anonymize Business Metrics to Publishing Implicit Feedback Datasets (Recsys2020) / recsys20-reading-gunosy-datapub
ysekky
3
2.8k
JSAI2020 OS-12 広告とAI オープニング / JSAI2020-OS-12-ads-and-ai-opening
ysekky
0
2.2k
JSAI2020インダストリアルセッション - Gunosyにおける研究開発 / jsai2020-gunosy-rd-examples
ysekky
1
800
ウェブサービス事業者における研究開発インターン[株式会社Gunosy] - テキストアナリティクスシンポジウム2019 / research-intern-case-study-at-gunosy
ysekky
0
2.9k
Gunosyにおけるニュース記事推薦/ news-recommendation-in-gunosy-webdbf2019
ysekky
1
1.5k
DEIM2019技術報告セッション - Gunosyの研究開発 / deim-2019-sponsor-session-gunosy-research
ysekky
0
1.2k
Analysis of Bias in Gathering Information Between User Attributes in News Application (ABCCS 2018)
ysekky
1
2.4k
世代による政治ニュース記事の閲覧傾向の違いの分析 - JSAI2018 / Analysis of differences in viewing behavior of politics news by age
ysekky
0
4k
Other Decks in Research
See All in Research
湯村研究室の紹介2025 / yumulab2025
yumulab
0
270
Remote sensing × Multi-modal meta survey
satai
4
650
CVPR2025論文紹介:Unboxed
murakawatakuya
0
230
高畑鬼界ヶ島と重文・称名寺本薬師如来像の来歴を追って/kikaigashima
kochizufan
0
110
Language Models Are Implicitly Continuous
eumesy
PRO
0
360
AIスパコン「さくらONE」のLLM学習ベンチマークによる性能評価 / SAKURAONE LLM Training Benchmarking
yuukit
2
900
まずはここから:Overleaf共同執筆・CopilotでAIコーディング入門・Codespacesで独立環境
matsui_528
2
940
Community Driveプロジェクト(CDPJ)の中間報告
smartfukushilab1
0
100
SREのためのテレメトリー技術の探究 / Telemetry for SRE
yuukit
13
2.6k
学習型データ構造:機械学習を内包する新しいデータ構造の設計と解析
matsui_528
4
2.2k
言語モデルの地図:確率分布と情報幾何による類似性の可視化
shimosan
8
2.3k
令和最新技術で伝統掲示板を再構築: HonoX で作る型安全なスレッドフロート型掲示板 / かろっく@calloc134 - Hono Conference 2025
calloc134
0
450
Featured
See All Featured
Rails Girls Zürich Keynote
gr2m
95
14k
Claude Code のすすめ
schroneko
65
200k
Building Applications with DynamoDB
mza
96
6.8k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
55
3.2k
Paper Plane (Part 1)
katiecoart
PRO
0
1.9k
Context Engineering - Making Every Token Count
addyosmani
9
540
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
34
2.6k
SEO for Brand Visibility & Recognition
aleyda
0
4.1k
Sam Torres - BigQuery for SEOs
techseoconnect
PRO
0
140
How to Ace a Technical Interview
jacobian
281
24k
Taking LLMs out of the black box: A practical guide to human-in-the-loop distillation
inesmontani
PRO
3
1.9k
Mind Mapping
helmedeiros
PRO
0
38
Transcript
[論文紹介] User-‐Level Sen.ment Analysis Incorpora.ng Social Network
Chenhao Tan*1, Killian Lee*1, Jie Tang*2, Long Jiang*3, Ming Zhou*3, Ping Li*1 (Cornel University*1, Tsinghua University*2, MicrosoL Research Asia*3) KDD2011 Yoshifumi Seki (Gunosy Inc) 2015.02.17 @Gunosy研究会 #83
概要 • TwiZerを使ってユーザの感情分析をする – 半教師ありモデル • ネットワーク上のつながりのあるユーザの感 情は似るという仮説を調べる
– フォロー/フォロワー – メンション – 相互か否か?
Contribu.on • SNSで関係のあるユーザ同士が同じ意見を持 つことが多いことを • ネットワーク指標を加える事でテキストからだ けの予測よりも感情分析が改善することを示 した
• フォロー/フォロワーとメンションのネットワー クの比較や、パラメータ学習方法の比較も やった
Concrete Problem Se]ng • ユーザが該当するトピックに対してポジティブ かネガティブかを判定する • ユーザ同士がつながっているかを判定する
– フォローしているか – 相互フォローか – リプライしたか – 相互にリプライを送ったか
Data Collec.on • プロフィールに記載されている情報からトピッ クに対するポジネガを判定する – obama lover, an.-‐obamaとかプロフィールに書い てある
ある2人のユーザが同じ感情を持つ確率
意見の違いとユーザがConnectedである確率
Model Framework • クエリqに対するツイートとユーザのネットワー クを生成する • Eqはuser-‐tweetとuser-‐userのエッジの2種 – ユーザ間のエッジはmen.onとfollowの相互が一
方向かの4種
Proposed Model • Y: 感情ラベルベクトル – ユーザ数次元 • k,
l : 感情ラベル {0, 1} • μ, λ: それぞれをどの程度反映させるかの重 み付きパラメータ • f, h: feature func.on
User-‐tweet factor • 学習済の場合とそうでない場合で値を分ける • k: ユーザのラベル •
l: ツイートのラベル
User-‐User factor • k : ユーザiのラベル • l: ユーザjのラベル
• w_rela.on: 関係性に対する重み
重みの設定 • w_labeled = 1.0 • w_unlabeled = 0.125
• w_rela.on = 0/6 • labeleを1.0に固定し, w_unlabeledを[0.1-‐0.5], w_rela.on{0.5-‐0.8}で変化させて設定した
Parameter Es.ma.on and Predic.on • λ, μを推定する • No
Learning – 直接推定する • Learning – No Learningで得た初期値を元に学習する
Direct Es.ma.on from simple sta.s.cs • 学習はしない • つながっているユーザ間で一致している確率
を数えるだけ • ネガティブユーザはネガティブなポジティブ ユーザはポジティブなツイートしかしない
Simple Rank
• LLR(Ynew, Y) – Ynewの対数尤度-‐Yの対数尤度 • RealPref(Ynew, Y)
– Pref(Ynew) – Pref(Y) • Pref(Y) = Accuracy + MacroF1 • もっと良い学習方法はあるけど,本論文はモ デルの良さをいいたいだけだからあんまりそ こは問題にならない
Predic.on • Zの推定が難しい • 5回SimpleRankで推定してどっちのラベル だったかをvoteさせて決める
Experiment Produces • 10回実験する – 教師データとして50個ずつP/Nのユーザを選ぶ • ツイートのポジネガ分類
– トピックごとにラベル付きデータから分類器をつくる • Baseline(SVM) – SVMを使ってユーザのツイートで多い方の感情ラベルを 採用 • Heterogeneous Graph Model with Direct es.ma.on from simple sta.cs – 推定を学習しないでやったグラフモデル • Heterogeneous Graph Model with Simple Rank – Simple Rankで学習したグラフモデル
Case Study • Obamaに関するポジネ ガ • 緑:P, 赤N
• ラベル付きデータのグ ラフ • ベースラインと提案手 法を比較する
None
None
Performance Analysis 左がNoLearning, 右がLearning △は3トピック以上でベースラインを統計的に有意に上回る
Performance Analysis • 提案手法はベースラインよりよい • Followのほうがmen.onよりよい • directのほうがmutualよりよい
• LearningとNoLearningはそんなに変わらない
Per-‐topic performance: density vs. quality analysis
Adding more unlabeled data Learningがもっともよい結果