Slide 6
Slide 6 text
6
ハルシネーション
[1] [2202.03629] Survey of Hallucination in Natural Language Generation
[2] [2311.05232] A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions
[3] [2311.14648] Calibrated Language Models Must Hallucinate
定義:“NLG models generating unfaithful or nonsensical text” [1]
ハルシネーションの要因(データ由来) [2]
● Flawed Data Source (不完全なデータソース)
● Inferior Data Utilization (不完全なデータ利用)
事前学習データに十分な知識があったとしてもハルシネーションは起こる [3]
言語モデルの「知識」に期待しない