Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Fine-Grained Contextual Predictions for Ha...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Shohei Okada
November 04, 2014
Research
0
91
文献紹介:Fine-Grained Contextual Predictions for Hard Sentiment Words
動画
https://www.youtube.com/watch?v=69WnudOGIBw&list=PL6SnxjlP6lpHdWaieYa0BGVuj8fgfiIw1&index=47
Shohei Okada
November 04, 2014
Tweet
Share
More Decks by Shohei Okada
See All by Shohei Okada
Symfony + NelmioApiDocBundle を使った スキーマ駆動開発 / Schema Driven Development with NelmioApiDocBundle
okashoi
0
240
たった 1 枚の PHP ファイルで実装する MCP サーバ / MCP Server with Vanilla PHP
okashoi
1
800
どうして手を動かすよりもチーム内のコードレビューを優先するべきなのか
okashoi
2
2.1k
パスワードのハッシュ、ソルトってなに? - What is hash and salt for password?
okashoi
3
370
設計の考え方 - インターフェースと腐敗防止層編 #phpconfuk / Interface and Anti Corruption Layer
okashoi
11
5.7k
"config" ってなんだ? / What is "config"?
okashoi
0
1.7k
ファイル先頭の use の意味、説明できますか? 〜PHP の namespace と autoloading の関係を正しく理解しよう〜 / namespace and autoloading in php
okashoi
4
2.1k
MySQL のインデックスの種類をおさらいしよう! / overviewing indexes in MySQL
okashoi
0
1.3k
PHP における静的解析(あるいはそもそも静的解析とは) / #phpcondo_yasai static analysis for PHP
okashoi
1
1.3k
Other Decks in Research
See All in Research
製造業主導型経済からサービス経済化における中間層形成メカニズムのパラダイムシフト
yamotty
0
540
"主観で終わらせない"定性データ活用 ― プロダクトディスカバリーを加速させるインサイトマネジメント / Utilizing qualitative data that "doesn't end with subjectivity" - Insight management that accelerates product discovery
kaminashi
16
23k
Ankylosing Spondylitis
ankh2054
0
150
Any-Optical-Model: A Universal Foundation Model for Optical Remote Sensing
satai
3
250
通時的な類似度行列に基づく単語の意味変化の分析
rudorudo11
0
210
ブレグマン距離最小化に基づくリース表現量推定:バイアス除去学習の統一理論
masakat0
0
210
【NICOGRAPH2025】Photographic Conviviality: ボディペイント・ワークショップによる 同時的かつ共生的な写真体験
toremolo72
0
200
生成AI による論文執筆サポート・ワークショップ データ分析/論文ドラフト編 / Generative AI-Assisted Paper Writing Support Workshop: Data Analysis and Drafting Edition
ks91
PRO
0
110
離散凸解析に基づく予測付き離散最適化手法 (IBIS '25)
taihei_oki
1
730
Aurora Serverless からAurora Serverless v2への課題と知見を論文から読み解く/Understanding the challenges and insights of moving from Aurora Serverless to Aurora Serverless v2 from a paper
bootjp
6
1.6k
Unified Audio Source Separation (Defense Slides)
kohei_1979
0
120
存立危機事態の再検討
jimboken
0
260
Featured
See All Featured
How to make the Groovebox
asonas
2
2k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Why You Should Never Use an ORM
jnunemaker
PRO
61
9.8k
YesSQL, Process and Tooling at Scale
rocio
174
15k
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Rebuilding a faster, lazier Slack
samanthasiow
85
9.4k
Optimising Largest Contentful Paint
csswizardry
37
3.6k
Music & Morning Musume
bryan
47
7.1k
HDC tutorial
michielstock
1
590
The Mindset for Success: Future Career Progression
greggifford
PRO
0
290
Stop Working from a Prison Cell
hatefulcrawdad
274
21k
From Legacy to Launchpad: Building Startup-Ready Communities
dugsong
0
180
Transcript
文献紹介 2014/11/04 長岡技術科学大学 自然言語処理研究室 岡田 正平
文献情報 Sebastian Ebert and Hinrich Schütze Fine-Grained Contextual Predictions for
Hard Sentiment Words In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp 1210-1215. 2014. 2014/11/04 文献紹介 2
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 3
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 4
Linguistic analysis of sentiment contexts of “hard”
語 “hard” についての解析 • Amazon Product Review Data より 5,000
文脈を取得 • うち 4,600 文脈に対して解析を行う – 語義・極性・文脈 – 語義は Cobuild (Sinclair, 1987) をベースにしている – Cobuild 16 語義 → 10 語義 • 200 文脈に対して2名のPhD学生が 10語義 をアノテート – κ=0.78 (かなりの一致) 2014/11/04 文献紹介 6
2014/11/04 文献紹介 7
2014/11/04 文献紹介 8
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 9
Deep learning features
Deep learning features 語義曖昧性解消を行えるようにするため Deep learning を 用いて以下2つの特徴量を学習する • word
embeddings • deep learning language model (LM) – 文脈を推定するモデル (predicted context distribution (PCD)) 2014/11/04 文献紹介 11 “serious” “difficult” word context “a * problem”
• vectorized log-bilinear language model (vLBL) = 1 , ⋯
, : context : input representation of word : target representation 2014/11/04 文献紹介 12
• 語と文脈の類似度が計算できる • パラメータθは – 入力空間および対象空間 の word embeddings –
文中の位置による重みベクトル ∈ – バイアス ∈ 2014/11/04 文献紹介 13
• English Wikipedia 中の頻出 100,000 語 が対象 • 無作為に抽出された13億の7-gramを用いて4回学習 2014/11/04
文献紹介 14
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 15
Experiments
実験 1 • 語義曖昧性解消に統計的な分類モデルを使用 – liblinear を利用 • 3種の素性 –
ngrams (n = 1~3) – embeddings (Blacoe and Lapata (2012)) – PCDs (提案手法) • 4,600 文脈 → training: 4,000, development: 600 2014/11/04 文献紹介 17
2014/11/04 文献紹介 18
実験 2 • 4,000 文脈を 100 クラスタにクラスタリング • 各クラスタにアノテーションを行い同様の実験 –
アノテーションコストの軽減 2014/11/04 文献紹介 19
2014/11/04 文献紹介 20
実験 3 • テストセットに対しての性能評価(オープンテスト) 2014/11/04 文献紹介 21