2023) l様々な人種・グループ等を平等には代表していない (Santurkar et al., 2023) (Durmus et al., 2023) LLMとの共同執筆は文章に影響を与え得る (Kleinberg and Raghavan, 2021) Algorithmic monoculture and social welfare. PNAS (Jakesch et al., 2023) Co-writing with opinionated language models affects users' views. CHI (Santurkar et al., 2023) Whose opinions do language models reflect? arXiv (Durmus et al., 2023) Towards measuring the representation of subjective global opinions in language models. arXiv
GPT-3と一緒 3. InstructGPTと一緒 人のフィードバックで調整すると 出力のエントロピーが減少する (Bai et al., 2022) 実験概要 (Bai et al., 2022) Training a helpful and harmless assistant with reinforcement learning from human feedback. arXiv
lRouge-L (Lin, 2004) でキーポイントリストと LLM生成文がどの程度重なっているか(左下図紫部分)を測定 → 平均でキーポイントの40%を生成 Q. キーポイントに貢献しているか?単に文字数稼いでるだけか? (Goyal et al., 2022) News Summarization and Evaluation in the Era of GPT-3. arXiv (Lin, 2004) ROUGE: A Package for Automatic Evaluation of Summaries. ACL
2023; Meister et al., 2023) l キーポイント 凝集型クラスタリングを完全連結法で実行し、クラスター内のポイントを同一と見做す (1/2) Q. LLMと文章を書くと文章の多様性は減るか? (Li et al., 2023) Contrastive decoding: Open-ended text generation as optimization. ACL (Meister et al., 2023) Locally typical sampling. TACL
文章の魂をLLMに握らせるな l単なるユーザーであっても、LLMの出自に無自覚ではいられない l ChatGPTの登場以降、使われるように/使われなくなった単語群の存在が示唆 (Matsui, 2024) l 他のあらゆる道具と同様、特徴や良し悪しを踏まえて活用するべき存在 所感 (Matsui, 2024) Delving into PubMed Records: Some Terms in Medical Writing Have Drastically Changed after the Arrival of ChatGPT. medRxiv