生成AIを開発に活用する場面が増える一方で、LLMの出力をそのまま信じることによるリスクも大きくなっています。
本資料では、CSVからIDを抽出し、SQLのIN句に埋め込んでUPDATE文を生成するタスクで、LLMが存在しないIDを生成してしまった事例をもとに、開発現場におけるハルシネーションの脅威と対策を整理します。
特に、LLMを「照合機」ではなく「生成器」として捉え、クリティカルな処理では生成・検証・実行の責務を分けることの重要性について説明します。
主な内容:
- 開発における生成AI活用と品質面のリスク
- SQL/ID抽出タスクで発生したハルシネーション事例
- LLMが厳密な照合を苦手とする理由
- DB更新や一括処理での実務的な注意点
- dry-run、件数確認、差分確認、スクリプト化による対策
- 関連論文「Copy-Paste to Mitigate Large Language Model Hallucinations」の紹介