Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Modeling Naive Psychology of Characters in Simp...
Search
Yuto Kamiwaki
January 29, 2019
Research
1
210
Modeling Naive Psychology of Characters in Simple Commonsense Stories
2019/01/30 文献紹介の発表内容
Yuto Kamiwaki
January 29, 2019
Tweet
Share
More Decks by Yuto Kamiwaki
See All by Yuto Kamiwaki
Emo2Vec: Learning Generalized Emotion Representation by Multi-task Training
yuto_kamiwaki
0
120
Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm
yuto_kamiwaki
0
110
Epita at SemEval-2018 Task 1: Sentiment Analysis Using Transfer Learning Approach
yuto_kamiwaki
0
130
Tensor Fusion Network for Multimodal Sentiment Analysis
yuto_kamiwaki
0
260
Sentiment Analysis: It’s Complicated!
yuto_kamiwaki
0
81
ADAPT at IJCNLP-2017 Task 4: A Multinomial Naive Bayes Classification Approach for Customer Feedback Analysis task
yuto_kamiwaki
0
160
EmoWordNet: Automatic Expansion of Emotion Lexicon Using English WordNet
yuto_kamiwaki
0
110
ATTENTION-BASED LSTM FOR PSYCHOLOGICAL STRESS DETECTION FROM SPOKEN LANGUAGE USING DISTANT SUPERVISION
yuto_kamiwaki
0
150
BB_twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs
yuto_kamiwaki
0
250
Other Decks in Research
See All in Research
なめらかなシステムと運用維持の終わらぬ未来 / dicomo2025_coherently_fittable_system
monochromegane
0
2.9k
AWSで実現した大規模日本語VLM学習用データセット "MOMIJI" 構築パイプライン/buiding-momiji
studio_graph
2
510
NLP Colloquium
junokim
1
200
snlp2025_prevent_llm_spikes
takase
0
170
Combinatorial Search with Generators
kei18
0
770
EcoWikiRS: Learning Ecological Representation of Satellite Images from Weak Supervision with Species Observation and Wikipedia
satai
3
130
Type Theory as a Formal Basis of Natural Language Semantics
daikimatsuoka
1
290
AIスパコン「さくらONE」のLLM学習ベンチマークによる性能評価 / SAKURAONE LLM Training Benchmarking
yuukit
0
340
言語モデルの地図:確率分布と情報幾何による類似性の可視化
shimosan
5
1.4k
一人称視点映像解析の最先端(MIRU2025 チュートリアル)
takumayagi
6
3.5k
Cross-Media Information Spaces and Architectures
signer
PRO
0
240
MIRU2025 チュートリアル講演「ロボット基盤モデルの最前線」
haraduka
15
8k
Featured
See All Featured
Practical Tips for Bootstrapping Information Extraction Pipelines
honnibal
PRO
23
1.4k
For a Future-Friendly Web
brad_frost
180
9.9k
How To Stay Up To Date on Web Technology
chriscoyier
790
250k
Art, The Web, and Tiny UX
lynnandtonic
303
21k
The Power of CSS Pseudo Elements
geoffreycrofte
77
6k
Faster Mobile Websites
deanohume
309
31k
We Have a Design System, Now What?
morganepeng
53
7.8k
Producing Creativity
orderedlist
PRO
347
40k
Designing for Performance
lara
610
69k
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.4k
Statistics for Hackers
jakevdp
799
220k
Scaling GitHub
holman
463
140k
Transcript
Modeling Naive Psychology of Characters in Simple Commonsense Stories Nagaoka
University of Technology Yuto Kamiwaki Literature Review
Literature • Modeling Naive Psychology of Characters in Simple Commonsense
Stories • Hannah Rashkin , Antoine Bosselut , Maarten Sap , Kevin Knight and Yejin Choi • Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Long Papers) 2
Abstract • 機械が物語を理解するのは,容易ではない. ◦ 行間を読む,人の精神状態 • 動機と感情的反応に関して登場人物の精神状態を特定し, 物語中の心理変化を説明する新しいアノテーションフレーム ワークを提案. 3
Introduction • 物語の中の出来事と登場人物の精神状態との間の因果関 係についての推論が必要.(たとえ,それらの関係が明確に 述べられていなくても) • Mostafazadeh et al.,2017で示されているように,本推論は 統計学とニューラルマシンにとって非常に困難(人間にとって
は些細なこと) 4
Introduction • 登場人物の精神状態に関して,短編小説を密にラベル付け するための新しいアノテーション形式を構築した Mostafazadeh et al.,2016→(この文献はコーパス構築につ いての内容) ◦ 文献url
: http://www.aclweb.org/anthology/N16-1098 5
6
• 登場人物の精神状態のオープンテキストの説明も取得. ◦ 登場人物の精神状態を説明することができる計算モデル を学習することが可能に 7
8
9
10
11
12
Model • TF-IDF • GloVe • CNN • LSTM •
REN • NPN 13
14
15 • タスクが難しいのに全てのモデルは,ランダムよりもスコアが高い. • エンティティ固有のコンテキスト情報を追加したことによりパフォーマンスが向上. • 各タスクで最もパフォーマンスの高いモデルは, Maslowの生理学的ニーズ, Reiss の食欲,Plutchikの喜びの反応を予測するのに最も効果的.
• 食物に関連する動機(および一般に生理学的ニーズ)を予測することの相対的な容 易さは,それらが摂食または調理などのより限定された具体的な一連の行動を含む ためである.
16
17 • 単純なモデルがオープンテキスト応答をカテゴリにマッピングすることを学習できて いる. • 自由回答アノテーションの分類モデルを事前学習することが,カテゴリ予測のパ フォーマンス向上に役立つ可能性があるという私たちの仮説を支持している.
18 • 説明は感情や動機の状態に密接に関係しているので,ランダムなベースラインをか なり競争力のあるものにすることができる. • すべてのモデルが両方のメトリックで強力なベースラインよりも優れており,生成され た簡単な説明は意味的にリファレンスのアノテーションに近いことを示している.
Conclusion • 短い物語における登場人物の精神状態の情報で訓練し,評 価するためのリソースとして大規模データセットを構築した. • データセットには、登場人物の動機と感情的な反応に対する 30万以上の低レベルの注釈が含まれている. • 重要なのは、登場人物固有のコンテキストをモデリングし,フ リーレスポンスデータを事前トレーニングすることでラベリン
グパフォーマンスが向上することである. 19