Upgrade to Pro — share decks privately, control downloads, hide ads and more …

大規模言語モデルの出力を技術的観点から考える

Masashi Takeshita
March 29, 2024
550

 大規模言語モデルの出力を技術的観点から考える

日本科学哲学会第56回(2023年度)大会ワークショップ「AI×実験哲学の可能性」にて発表したスライド資料。
https://pssj.info/program_ver1/program_data_ver1/56/workshop/index.html

Masashi Takeshita

March 29, 2024
Tweet

Transcript

  1. すべての出力が記憶された文章なわけではない 理由2:データ抽出は常に可能なわけではない 11 • Carlini+ (2021) ◦ GPT-2を使用 ◦ 604/1800件が記憶(約33.5%)

    • Carlini+ (2023) ◦ モデルサイズを変化させて実験 ◦ サイズが大きいほど記憶は増加 よって、すべてが記憶なわけではない Carlini+ (2023)
  2. その他の社会的バイアス 言語 22 LLaMA 2の事前学習データ (具体的な中身は非公開) Dataset Token Count mC4

    (ja) 135.9B Wikipedia (ja) 1.5B Pile (en) 136.0B Wikipedia (en) 5.1B Stack (code) 136.0B LLM-jpで用いられてる 事前学習データ https://github.com/llm-jp/llm- jp-corpus Touvron+ (2023b)
  3. バイアスを減らす・取り除く • バイアスをより「中立的」に • 「有害な」バイアスは除去・軽減 有用性 • 「中立的」(望ましい?)観点 からの結果が得られる 懸念点

    • 「中立的」「有害」を決められるか? • それは実験哲学に望ましいか? 24 RLHF (Ouyang + 2022) 事前学習データの 変更 (Feng+ 2023)
  4. バイアスを前提にする:LLMを社会的文脈に置く • LLMは私達の言語データから学習しており、 社会的な位置づけから逃れられない(cf. D'ignazio & Klein 2020) 有用性 •

    各文化圏のデータで学習したLLMをそれぞれ作成し、実験可能 (文化横断的実験を簡易的に) • 哲学者も社会的に位置づけられているので、LLMと違いはない 懸念点 • 実験哲学(予測的・非予測的)に有用なモデルであるか? 25
  5. 参考文献 • Brown, T., et al.. (2020). Language models are

    few-shot learners. Advances in neural information processing systems, 33, 1877-1901. • Carlini, N., et al.. (2021). Extracting training data from large language models. In 30th USENIX Security Symposium (USENIX Security 21), 2633-2650. • Carlini, N., et al.. (2023). Quantifying Memorization Across Neural Language Models. In The Eleventh International Conference on Learning Representations. • D'ignazio, C., & Klein, L. F. (2020). Data feminism. MIT press. • Feng, S., et al.. (2023). From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 11737–11762. • Gao, L., et al.. (2020). The pile: An 800gb dataset of diverse text for language modeling. arXiv preprint arXiv:2101.00027. • Hagendorff, T., et al.. (2023). Speciesist bias in AI: how AI applications perpetuate discrimination and unfair outcomes against animals. AI and Ethics, 3(3), 717-734. • Hoffmann, J., et al.. (2022). Training compute-optimal large language models. arXiv preprint arXiv:2203.15556. • Lewis, M., et al.. (2020). BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 7871-7880. • OpenAI. (2023). GPT-4 Technical Report. arXiv preprint arXiv:2303.08774. • Ouyang, L., et al.. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730-27744. • Santurkar, S., et al.. (2023). Whose Opinions Do Language Models Reflect?. The Fortieth International Conference on Machine Learning. • Schaeffer, R., et al.. (2023). Are Emergent Abilities of Large Language Models a Mirage?. ICML 2023 Workshop DeployableGenerativeAI. • Touvron, H., et al.. (2023a). Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971. • Touvron, H., et al.. (2023b). Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288. • Wang, B., et al.. (2023). DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models. arXiv preprint arXiv:2306.11698. • Wei, J., et al.. (2022). Emergent Abilities of Large Language Models. Transactions on Machine Learning Research. 27