https://genai-users.connpass.com/event/341391/
大規模言語モデル(LLM)は、外部の知識源を利用することで、より強力な応答を生成できるようになります(これをRetrieval-Augmented Generation: RAGと呼びます)。LLMが処理できる入力テキストの長さが長くなるにつれて、より多くの関連情報をRAGで与えられるようになり、生成される回答の質が向上することが期待されます。一般的には、取得する情報が多いほど関連情報(高い再現率)も増え、結果として性能が向上すると考えられます。
しかし、長文処理LLMにおけるRAGの性能が、取得する情報が増えすぎると逆に低下する現象を明らかにし、その原因が「ハードネガティブ」な情報にあることを示しました。そして、その問題を解決するために、効果的な学習不要および学習を伴うアプローチを提案しています。