Upgrade to Pro — share decks privately, control downloads, hide ads and more …

小説執筆における生成AIの利用

Tajima Itsuro
November 11, 2023

 小説執筆における生成AIの利用

ChatGPTなどの生成AIは,与えられた指示から文章を生成する機能を持ち,それ自体が知識にアクセスする手段となり,また生成された文章は情報源となりWebなどを流通しうる。しかし,その前提として,人々が生成AIを実際の作業の中でどのようなものとして理解し利用しているかはわずかしか研究されていない。本研究では,生成AIの利用を,実際の執筆作業を対象に記述することを目的とする。具体的には,SFプロトタイピングプロジェクトにおいてChatGPTを用いて小説を執筆する実践を対象に,執筆者とChatGPTとの対話ログを収集した。それをエスノメソドロジー的ワークの研究の方針に従い記述した。これによって,執筆者による明確な指示(プロンプト)を与えて小説を生成する,自らもしくはAIが生成した小説にフィードバックを求める,またそれらを含め対話の中で執筆者に合った形で利用し書き上げていくといった,柔軟かつ多様な実践が見られた。

Tajima Itsuro

November 11, 2023
Tweet

More Decks by Tajima Itsuro

Other Decks in Research

Transcript

  1. 背景 • ChatGPTなどの文章生成AI(以下生成AI。画像生成など は対象としない)が急激に文章生成に利用されつつある • 人手と区別することが難しい文章を生成できる • 技術的進展:大量のデータと計算量を用いて用いて作ら れた、トークン列から次のトークン列を予測する大規 模言語モデル(Large

    Language Model: LLM)が登場 • 生成AIによる文章はソーシャルメディアなどの形で Web上を流通するだろう • 知識へのアクセスにどのような影響を与えるだろうか • コンテンツの粗製乱造、誤情報の流通などが指摘されている
  2. 背景 • 実際に起きている事例 • プログラミングに関する専門家同士の質問回答によって 「良い知識の総和を増やす」サイトStack Overflow(SO) において、質問をそのままChatGPTに入力し、生成させた 回答が大量に投稿された •

    品質を担保するボランティアであるモデレーターは対応に 苦慮、生成AIかどうか判断する独自の基準を考案 • 運営会社は判断基準を認めず論争、一時モデレーターが納 得せずボイコット→和解 • SOで生成AIを用いた投稿を認めるかに関する議論 • SOの利用者がChatGPTの登場以降減りつつある
  3. 問題意識 • 生成AIは知識へのアクセスにとって良いか悪いか? • それ以前に、前提である、生成AIとは何で、何ができ るかについてよくわかっていない • 技術的な説明では、「人間と区別がつかないような」 文章が生成されることを説明できない •

    一方で、少なくとも生成AIの利用者は、使う中で生成 AIと生成された文章の特徴について理解し、利用して いる • では、どのように理解し、利用しているのか? • それを実際の利用から解明したい
  4. 研究対象:オモイカネプロジェクト • Web上のプロジェクト。ページ単位で貢献 • 田島は創立者の一人 • 活動の一つ「SFプロトタイピング」:AIに関するSFを書き、 読むことで未来について想像し、考える試み • では誰がSFを書くか?

    • 当初は人手で書き、議論するはずが • AI(ChatGPT)にSFを書かせるという実験的な方向性が自発 的に生まれた • 生成されたSFとChatGPTとの対話ログを共有するコミュニ ティが形成 • 「AI小説」の誕生
  5. 研究方法 • これらから、SFを生み出そうとしていることはわかる • つまり、小説ページや対話ログがそのように読めるよ うに、利用者が物事をおこなっている • それは何を目指してどのようにおこなわれているのだ ろうか •

    人々の活動がいかにして組織されているか記述するエ スノメソドロジー的ワークの研究 • どちらかというと、SFの内容ではなく生成させるとい う活動に注目
  6. 「プロンプティング」による生成 • ChatGPTとのインタラクションをどう始めているか • (1)「1980年代に未来から大規模言語モデルを渡されて それを駆使して未来を作っていくAI小説を書いてくださ い。」 • 指示した後はChatGPTに任せている •

    (2)「あなたと一緒にSFのショート作品を作りたいと 思っています」 • 利用者が作品の生成過程に積極的にかかわっている • 上記の2つは明らかに異なる方向性であるが、SFを書かせ る指示という点では同じ • 順番に見ていく
  7. 『リソース:ネットの彼方へ』 • 参加者「Twitterの崩壊で今後どうなるという話からの「RSS リーダーに戻るのか?」という話と「RSSリーダー?なにそ れ?」という話をみててRSSリーダーの概念が再発掘される話 を書いてみた」 • 対話ログ • User:「RSS

    readerはなぜ廃れたの?」 • ChatGPT:理由を列挙する、別に廃れたとは言えない • User:「あなたはSF作家です。近未来SFを書け。制約: RSSリーダー が新しい形で若者に受け入れられる」 • ChatGPT:情報化社会の問題が解決されるSFを生成 • まずRSSリーダーについてChatGPTに説明させ、RSSリーダー を内容に含めてSF生成のプロンプティングをおこなった
  8. 『対話の響き:亡き友の声、心の中で』 • 対話ログ • User:以下の[あらすじ]をもとに、[書き出し]から小説を生成してください。 [あらすじ] - 主人公は亡くなった親友の手記を見つける。 - 主人公には悩んでいることがあり、親友に聞きたがっている。

    - 主人公は手記をAIアシスタントに読ませ、その人物になりきらせる。 - 死者が蘇ったような対話ができた。 - しかし、それは自分の心の中で親友に言ってほしかったこととほぼ同じものだった。 [書き出し] ネットの海にはなかなか情報はなくならない。(…) • ChatGPT:(書き出しと、その続き) • 書き出しに近いトーン、あらすじに概ね従った文章が 生成
  9. 翻案や方法の指示 • 偶然に依存したSFの生成 • まずなぞなぞやしりとりをさせ、それらに出てきた単語を含むSF を生成させる • ダイスを振らせ、出目に応じて展開を変える • うまく生成されないこともあり、人手で断片的に取り入れ

    て編集することで投稿していた • 別の物語(昔話など)からの翻案 • 文章の変換。翻訳などに近い • 生成の内容だけでなく、方法も指示している • 「機械的な」アプローチ。例えば対立する視点、ある行動 を選択した場合、しなかった場合などを自動生成できる
  10. 対話的プロンプティング • 『AIのコミュニケーション能力改善教室』 • 「あなたと一緒にSFのショート作品を作りたいと思っ ています」 • 小説の構成要素や書くプロセスをChatGPTが提案 • ChatGPTがアイデアを提示したところ、それを参考に

    自分でテーマを考案 • ChatGPTがテーマに関するプロットを生成したが、そ れに満足せず自分でプロットを書く→生成させる • チャットによって対話しながら方向性を決めていく • 期待通りの生成はされなかったが、利用者は対話の内 容を生かしてSFを完成させた
  11. 「AI小説」に一貫した実践 • 以上をまとめると、「SFを生成することの指示」への 志向と、その方法の多様性がみられた • 一貫してSFを生成することを志向して指示をおこなっ ていた。それを達成するためにそれぞれの事情にあっ た使い方をし、ChatGPTはおおむねそれに応じていた • プロンプティング

    • 特定のテーマに焦点を当てたいなら知識の利用 • すでにプロットなどがあるなら方針の提示 • 生成プロセスを指定したいなら方法の指示 • 対話的な方向性の指示 • 「SFを書くこと」と「SFを書くように指示をするこ と」 は重なる部分もあるが異なる
  12. 「AI小説」に一貫した実践 • 指示の「実験」への志向 • ChatGPTをどのように使えば、どのようなSFが生成さ れるのかはわからない • 決まった方法ではなく、それぞれに工夫や試行錯誤が あった •

    プロンプトの制約条件の変更 • 別の文章からの変換 • ダイスを振らせる、なぞなぞをさせる • 本研究の限界:試行錯誤の結果うまくいったものしか分 析対象とならなかった
  13. 「指示」の技術的課題と実践的課題 • 一方で、指示は技術的課題でもある • LLMに指示と応答を教える方法:Instruction Tuning • 自然言語による指示と、それに対する応答のサンプルのペ アからなるデータセットを「学習」させる •

    学習させたことはでき、それ以外のことは難しい • ChatGPTはいろいろできるが詳細は非公開 • openorca_stx "This model specialises on answering Closed Question Answering in Japanese." • 開発者がLLMで実現すること(自然言語処理のタスク)と利 用者がLLMに期待すること(現実の問題への支援) • 「実験」の必要性、「GPTs」のようなカスタマイズの可能性
  14. 結論と示唆 • 「指示」はSFの生成に限らない生成AIの利用一般にみ られる実践だろう • 一方で、指示は特定の状況で特定の作業を遂行するよ うになされる • 「SFを書かせる」状況がなければ指示はおこなわれない •

    指示を利用者にとっての問題として研究する必要 • それによって「生成AIに何ができるか」、さらにそれ に立脚した議論もできるだろう • 技術的な応用可能性も広げるかもしれない