Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Modeling Naive Psychology of Characters in Simple Commonsense Stories

Fb31b0b39ecedd2353fa1a6e68200449?s=47 Yuto Kamiwaki
January 29, 2019

Modeling Naive Psychology of Characters in Simple Commonsense Stories

2019/01/30 文献紹介の発表内容

Fb31b0b39ecedd2353fa1a6e68200449?s=128

Yuto Kamiwaki

January 29, 2019
Tweet

More Decks by Yuto Kamiwaki

Other Decks in Research

Transcript

  1. Modeling Naive Psychology of Characters in Simple Commonsense Stories Nagaoka

    University of Technology Yuto Kamiwaki Literature Review
  2. Literature • Modeling Naive Psychology of Characters in Simple Commonsense

    Stories • Hannah Rashkin , Antoine Bosselut , Maarten Sap , Kevin Knight and Yejin Choi • Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Long Papers) 2
  3. Abstract • 機械が物語を理解するのは,容易ではない. ◦ 行間を読む,人の精神状態 • 動機と感情的反応に関して登場人物の精神状態を特定し, 物語中の心理変化を説明する新しいアノテーションフレーム ワークを提案. 3

  4. Introduction • 物語の中の出来事と登場人物の精神状態との間の因果関 係についての推論が必要.(たとえ,それらの関係が明確に 述べられていなくても) • Mostafazadeh et al.,2017で示されているように,本推論は 統計学とニューラルマシンにとって非常に困難(人間にとって

    は些細なこと) 4
  5. Introduction • 登場人物の精神状態に関して,短編小説を密にラベル付け するための新しいアノテーション形式を構築した Mostafazadeh et al.,2016→(この文献はコーパス構築につ いての内容) ◦ 文献url

    : http://www.aclweb.org/anthology/N16-1098 5
  6. 6

  7. • 登場人物の精神状態のオープンテキストの説明も取得. ◦ 登場人物の精神状態を説明することができる計算モデル を学習することが可能に 7

  8. 8

  9. 9

  10. 10

  11. 11

  12. 12

  13. Model • TF-IDF • GloVe • CNN • LSTM •

    REN • NPN 13
  14. 14

  15. 15 • タスクが難しいのに全てのモデルは,ランダムよりもスコアが高い. • エンティティ固有のコンテキスト情報を追加したことによりパフォーマンスが向上. • 各タスクで最もパフォーマンスの高いモデルは, Maslowの生理学的ニーズ, Reiss の食欲,Plutchikの喜びの反応を予測するのに最も効果的.

    • 食物に関連する動機(および一般に生理学的ニーズ)を予測することの相対的な容 易さは,それらが摂食または調理などのより限定された具体的な一連の行動を含む ためである.
  16. 16

  17. 17 • 単純なモデルがオープンテキスト応答をカテゴリにマッピングすることを学習できて いる. • 自由回答アノテーションの分類モデルを事前学習することが,カテゴリ予測のパ フォーマンス向上に役立つ可能性があるという私たちの仮説を支持している.

  18. 18 • 説明は感情や動機の状態に密接に関係しているので,ランダムなベースラインをか なり競争力のあるものにすることができる. • すべてのモデルが両方のメトリックで強力なベースラインよりも優れており,生成され た簡単な説明は意味的にリファレンスのアノテーションに近いことを示している.

  19. Conclusion • 短い物語における登場人物の精神状態の情報で訓練し,評 価するためのリソースとして大規模データセットを構築した. • データセットには、登場人物の動機と感情的な反応に対する 30万以上の低レベルの注釈が含まれている. • 重要なのは、登場人物固有のコンテキストをモデリングし,フ リーレスポンスデータを事前トレーニングすることでラベリン

    グパフォーマンスが向上することである. 19