Slide 13
Slide 13 text
Finetune で独自ドメインの知識を
与えるのは困難
元のモデルが知識として持たない
データセットを構築し、ファイン
チューニングで意図的にそのよう
な知識を獲得させようと訓練
知らない知識を与えれば与えるほ
どハルシネーションを引き起こし
やすくなるという結果
Gekhman, Zorik, et al. "Does Fine-Tuning LLMs on New Knowledge Encourage
Hallucinations?." arXiv preprint arXiv:2405.05904 (2024). https://arxiv.org/abs/2405.05904