Upgrade to Pro — share decks privately, control downloads, hide ads and more …

論文紹介:Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation

論文紹介:Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation

This deck explains the paper "Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation".

Ryutaro Asahara

January 15, 2023
Tweet

More Decks by Ryutaro Asahara

Other Decks in Research

Transcript

  1. 選んだ論文について ◼ Zhexin Zhang, Jiaxin Wen, Jian Guan, and Minlie

    Huang. 2022. Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 3346–3361, Seattle, United States. Association for Computational Linguistics. ◼ 選んだ理由 ⚫ ストーリー+ペルソナという点で,ストーリー+性格の研究に使えそうだと思った ため
  2. 関連研究 ◼ ストーリー生成 ⚫ ストーリーの大まかなプロットを生成し,プロットからストーリーを生成する,と いう手法が広く用いられている(Yao et al., 2019. Fan

    et al., 2019; Goldfarb-Tarrant et al., 2020. Kang and Hovy, 2020) ◼ 条件付き生成 ⚫ PersonaChatの対話は、与えられたペルソナを明示的に示す傾向がある ⚫ 例:ペルソナ「私は犬が怖い」に対して、システムは「私は犬が怖い」と言う
  3. データセット ◼ STORIUM ⚫ 6000の長編ストーリー ⚫ 登場人物の特徴を表す自由記述形式の文 (性格や特技,職種など.) ◼ PersonaChatでは「私は犬が怖い」のペルソナから、

    「私は犬が怖いです」という明示的な発話を生成する傾向がある ◼ PersonaChatとSTORIUMにおいて文章とペルソナ間のROUGEを比較 ⚫ PersonaChat:0.1584 ⚫ STORIUM:0.018 ◼ STORIUMでは暗黙的なペルソナの一貫性が求められている
  4. Plot Planning 言語モデルへの入力 ◼ コンテキスト𝑋とペルソナ𝑃から表現𝑠𝑡 を得る 𝑋 = 𝑥1 ,

    𝑥2 , … , 𝑥|𝑋| 𝑃 = 𝑝1 , 𝑝2 , … , 𝑝𝑙 𝑌 = 𝑦1 , 𝑦2 , … , 𝑦|𝑌| (𝑥, 𝑝, 𝑦は全てトークン) 𝑠1 :デコーダの𝑡番目の隠れ状態 𝑆:𝑋と𝑃を連結したもの W, 𝑏:学習可能なパラメータ
  5. Plot Planning グラフ表現の計算 ◼ 𝑡番目に生成されたキーワードを追加することで𝐺𝑡+1 に更新 ◼ 𝑖番目のグラフ𝐺𝑖 の表現𝑔𝑖 を計算

    ◼ 各ノード(トークン)の埋め込みをRoBERTaで獲得 ◼ ノードを結ぶ関係詞の埋め込みをランダムに初期化 ⚫ 「A has B」や「A attribute to B」などのConseptnet上に定義された関係詞 ℎ𝑛 𝑖 , 𝑡𝑛 𝑖 :𝑖番目のグラフの𝑛番目埋め込み 𝑟𝑛 𝑖:𝑖番目のグラフの𝑛番目埋め込み
  6. Story Generation 学習時 コンテキスト ペルソナ ターゲット文 入力 出力 ストーリー ターゲット文

    正解のストーリー プロット 中間 コンテキスト ペルソナ 入力 プロット ◼ コンテキストとペルソナ,ターゲット文,からプロットを生成 ◼ コンテキストとペルソナ,プロットからストーリーを生成
  7. Story Generation 推論時 コンテキスト ペルソナ ターゲット文 入力 出力 ストーリー プロット

    出力 コンテキスト ペルソナ 入力 プロット 生成 ◼ コンテキストとペルソナからターゲット文とプロットを生成 ◼ コンテキストとペルソナ,プロットからストーリーを生成
  8. ベースライン ◼ ConvS2S (Gehring et al., 2017):畳み込みseq2seqモデルにコンテキストとペルソナを入力 ◼ Fusion (Fan

    et al., 2018):最初に畳み込みseq2seqモデルを学習させ、そのモデルを固定 し、そのパラメータで別の学習可能な畳み込みseq2seqモデルを初期化することでス トーリーを生成するものである。その後、2つのモデルは融合メカニズムによって一緒 に学習される ◼ Plan&Write (Yao et al., 2019):コンテキストとペルソナからプロットを生成.コンテキス トとペルソナ,プロットをさらに入力してストーリーを生成 ◼ GPT2Scr:事前学習なしでGPT-2のモデル構造のみを用いてストーリー生成 ◼ GPT2Ft:事前学習ありでストーリー生成 ◼ PlanAhead (Kang and Hovy, 2020):コンテキストとペルソナからプロットを生成.言語モ デル予測とキーワード分布をゲート機構で組み合わせてストーリーを生成
  9. 自動評価 ◼ BLEU-1,2 ◼ BS-t (BERTScore-target):ペルソナ文とターゲット文に対するBERTScore ◼ BS-m (BERTScore-max):ペルソナ文とストーリーの各文に対してBERTScore を計算し,各文の最大値をスコアとする

    ◼ PC(Persona Consistency):ペルソナ文とストーリーが一致しているかを 評価する.ペルソナに対して正しいストーリーを1,それ以外を0として 学習した精度83%の分類器の正解率をスコアとする.
  10. Ablation Study ◼ w/o KG:プロット生成時の知識グラフをなくす ◼ w/o TG:プロット生成時のターゲット文をなくす(表現の平均) ◼ w/o

    PP:プロット生成をやめる.つまり,コンテキストとペルソナから ターゲット文を生成し,コンテキストとペルソナからストーリーを生成 するだけ. ◼ w/o TP:ターゲット文の生成をせず,プロットだけを作ってストーリー を生成.
  11. 生成例 文脈 宮本邸の屋上庭園に集合した一行。(中略)中庭の長テーブルの近くに置かれたテレ ビが、小さな音量で盗難事件のことを話している。(中略)クロエの失踪と像の行方 という問題が、まだ彼らの頭の中にある。 ペルソナ文 [Aito]あなたのコンピュータスキルは平均以上です。情報が力であるならば、インター ネットを使いこなすあなたの能力は を使いこなすことで、地球上で最もパワフルな人 物の一人となる。

    GPT-2 Aitoはまだホテルの出口を見つけるのを助けるためにしようとしている、他の人を見 た。彼はグループの残りの部分は、彼らが生き残るために、すべて知っていた場合は、 彼が必要とされるかどうかを確認したかったのかわからなかった。 CONPER(提案手法) 「ああ、待てよ みんなクロエのことを話しているのか?」 「インターネットは、お そらくこれを乗り切るための最良のチャンスであるような気がする」アイトはテーブ ルを少し見回してからタブレットを取り出し、パソコンに猛然と打ち込みはじめた。 彼女は現れたタブレットを見上げると、いろいろと動いているのがわかった。 プロット(キーワード) people → look → around → tablet → see · · ·