Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
文献紹介:Fine-Grained Contextual Predictions for Ha...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Shohei Okada
November 04, 2014
Research
0
90
文献紹介:Fine-Grained Contextual Predictions for Hard Sentiment Words
動画
https://www.youtube.com/watch?v=69WnudOGIBw&list=PL6SnxjlP6lpHdWaieYa0BGVuj8fgfiIw1&index=47
Shohei Okada
November 04, 2014
Tweet
Share
More Decks by Shohei Okada
See All by Shohei Okada
たった 1 枚の PHP ファイルで実装する MCP サーバ / MCP Server with Vanilla PHP
okashoi
1
730
どうして手を動かすよりもチーム内のコードレビューを優先するべきなのか
okashoi
2
2k
パスワードのハッシュ、ソルトってなに? - What is hash and salt for password?
okashoi
3
330
設計の考え方 - インターフェースと腐敗防止層編 #phpconfuk / Interface and Anti Corruption Layer
okashoi
11
5.4k
"config" ってなんだ? / What is "config"?
okashoi
0
1.6k
ファイル先頭の use の意味、説明できますか? 〜PHP の namespace と autoloading の関係を正しく理解しよう〜 / namespace and autoloading in php
okashoi
4
2k
MySQL のインデックスの種類をおさらいしよう! / overviewing indexes in MySQL
okashoi
0
1.2k
PHP における静的解析(あるいはそもそも静的解析とは) / #phpcondo_yasai static analysis for PHP
okashoi
1
1.2k
【PHPカンファレンス沖縄 2023】素朴で考慮漏れのある PHP コードをテストコードとともに補強していく(ライブコーディング補足資料) / #phpcon_okinawa 2023 livecoding supplementary material
okashoi
3
2.1k
Other Decks in Research
See All in Research
[チュートリアル] 電波マップ構築入門 :研究動向と課題設定の勘所
k_sato
0
260
第二言語習得研究における 明示的・暗示的知識の再検討:この分類は何に役に立つか,何に役に立たないか
tam07pb915
0
1.2k
An Open and Reproducible Deep Research Agent for Long-Form Question Answering
ikuyamada
0
280
Aurora Serverless からAurora Serverless v2への課題と知見を論文から読み解く/Understanding the challenges and insights of moving from Aurora Serverless to Aurora Serverless v2 from a paper
bootjp
6
1.5k
空間音響処理における物理法則に基づく機械学習
skoyamalab
0
190
世界の人気アプリ100個を分析して見えたペイウォール設計の心得
akihiro_kokubo
PRO
66
37k
世界モデルにおける分布外データ対応の方法論
koukyo1994
7
1.6k
SkySense V2: A Unified Foundation Model for Multi-modal Remote Sensing
satai
3
510
Akamaiのキャッシュ効率を支えるAdaptSizeについての論文を読んでみた
bootjp
1
450
[Devfest Incheon 2025] 모두를 위한 친절한 언어모델(LLM) 학습 가이드
beomi
2
1.4k
Agentic AI フレームワーク戦略白書 (2025年度版)
mickey_kubo
1
120
Ankylosing Spondylitis
ankh2054
0
120
Featured
See All Featured
30 Presentation Tips
portentint
PRO
1
230
Why Our Code Smells
bkeepers
PRO
340
58k
Rails Girls Zürich Keynote
gr2m
96
14k
Digital Ethics as a Driver of Design Innovation
axbom
PRO
1
190
Money Talks: Using Revenue to Get Sh*t Done
nikkihalliwell
0
160
The Straight Up "How To Draw Better" Workshop
denniskardys
239
140k
Bioeconomy Workshop: Dr. Julius Ecuru, Opportunities for a Bioeconomy in West Africa
akademiya2063
PRO
1
57
How to train your dragon (web standard)
notwaldorf
97
6.5k
Code Review Best Practice
trishagee
74
20k
16th Malabo Montpellier Forum Presentation
akademiya2063
PRO
0
53
Jamie Indigo - Trashchat’s Guide to Black Boxes: Technical SEO Tactics for LLMs
techseoconnect
PRO
0
66
Leading Effective Engineering Teams in the AI Era
addyosmani
9
1.6k
Transcript
文献紹介 2014/11/04 長岡技術科学大学 自然言語処理研究室 岡田 正平
文献情報 Sebastian Ebert and Hinrich Schütze Fine-Grained Contextual Predictions for
Hard Sentiment Words In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp 1210-1215. 2014. 2014/11/04 文献紹介 2
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 3
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 4
Linguistic analysis of sentiment contexts of “hard”
語 “hard” についての解析 • Amazon Product Review Data より 5,000
文脈を取得 • うち 4,600 文脈に対して解析を行う – 語義・極性・文脈 – 語義は Cobuild (Sinclair, 1987) をベースにしている – Cobuild 16 語義 → 10 語義 • 200 文脈に対して2名のPhD学生が 10語義 をアノテート – κ=0.78 (かなりの一致) 2014/11/04 文献紹介 6
2014/11/04 文献紹介 7
2014/11/04 文献紹介 8
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 9
Deep learning features
Deep learning features 語義曖昧性解消を行えるようにするため Deep learning を 用いて以下2つの特徴量を学習する • word
embeddings • deep learning language model (LM) – 文脈を推定するモデル (predicted context distribution (PCD)) 2014/11/04 文献紹介 11 “serious” “difficult” word context “a * problem”
• vectorized log-bilinear language model (vLBL) = 1 , ⋯
, : context : input representation of word : target representation 2014/11/04 文献紹介 12
• 語と文脈の類似度が計算できる • パラメータθは – 入力空間および対象空間 の word embeddings –
文中の位置による重みベクトル ∈ – バイアス ∈ 2014/11/04 文献紹介 13
• English Wikipedia 中の頻出 100,000 語 が対象 • 無作為に抽出された13億の7-gramを用いて4回学習 2014/11/04
文献紹介 14
概要 仮説 「高精度な感情解析には,感情極性が異なる語義を 正確に識別することが不可欠」 語義による感情極性の異なりを扱う 1. “hard”という語に対して解析(仮説の検証) 2. 語義曖昧性解消のための特徴量を学習 3.
実験による精度向上の確認 2014/11/04 文献紹介 15
Experiments
実験 1 • 語義曖昧性解消に統計的な分類モデルを使用 – liblinear を利用 • 3種の素性 –
ngrams (n = 1~3) – embeddings (Blacoe and Lapata (2012)) – PCDs (提案手法) • 4,600 文脈 → training: 4,000, development: 600 2014/11/04 文献紹介 17
2014/11/04 文献紹介 18
実験 2 • 4,000 文脈を 100 クラスタにクラスタリング • 各クラスタにアノテーションを行い同様の実験 –
アノテーションコストの軽減 2014/11/04 文献紹介 19
2014/11/04 文献紹介 20
実験 3 • テストセットに対しての性能評価(オープンテスト) 2014/11/04 文献紹介 21