Upgrade to Pro — share decks privately, control downloads, hide ads and more …

(論文読み)データ強化LLMアプリケーションの包括的調査

ymgc
October 03, 2024

 (論文読み)データ強化LLMアプリケーションの包括的調査

元論文
[Retrieval Augmented Generation (RAG) and Beyond: A Comprehensive Survey on How to Make your LLMs use External Data More Wisely](https://arxiv.org/html/2409.14924v1)

ymgc

October 03, 2024
Tweet

More Decks by ymgc

Other Decks in Science

Transcript

  1. 目次 1. はじめに 2. 問題定義 3. 明示的事実クエリ(L1) 4. 暗黙的事実クエリ(L2) 5.

    解釈可能な根拠クエリ(L3) 6. 隠れた根拠クエリ(L4) 7. 結論 2
  2. データ強化LLMアプリケーションの定式化 f: 𝒬 → 𝒟𝒜 ▶ 𝒬: ユーザーの入力(クエリ) - 𝒜:

    期待される応答(回答) - 𝒟: 与えられたデータ - f: 𝒟に基づいて𝒬から𝒜へのマッピングを行うアプリケーション - 9
  3. 11

  4. クエリの層別化: 詳細 レベル1: 明示的事実 ▶ 回答が与えられたデータに直接存在 - 最小限の推論が必要 - 例:

    「2024年夏季オリンピックはどこで開催されますか?」 - レベル2: 暗黙的事実 ▶ 常識的推論を通じて複数の事実を組み合わせる必要がある - 単純な論理的推論を含む場合がある - 例: 「キャンベラがある国の現在の多数党は何ですか?」 - 12
  5. クエリの層別化: 詳細(続き) レベル3: 解釈可能な根拠 ▶ 専門分野特有の根拠の理解と適用が求められる - 根拠は外部リソースに明示的に提供されることが多い - 例:

    FDAガイダンス文書に基づく医薬品申請の評価 - レベル4: 隠れた根拠 ▶ 明示的に記述されていない専門分野特有の推論方法を推論する - 歴史的データや複雑な知識ベースから暗黙知を統合する必要がある - 例: 財務報告と経済動向に基づく企業発展の予測 - 13
  6. 14

  7. 3.2 課題と解決策 データ処理の困難: ▶ 非構造化およびマルチモーダル要素の処理 - セグメンテーションまたは「チャンキング」中のコンテキスト維持 - データ取得の困難: ▶

    大規模な非構造化データセットからの効率的かつ正確な取得 - 評価の困難: ▶ 取得と応答の品質を評価するための堅牢な指標の開発 - RAG(Retrieval-Augmented Generation)が主要な解決策 ▶ 17
  8. 3.3 検索拡張生成(RAG) データ処理の強化: ▶ マルチモーダル文書解析 - チャンキングの最適化 - データ取得の強化: ▶

    インデックス作成方法: スパース、デンス、ハイブリッド検索 - クエリ-文書アライメント技術 - 再ランキングと修正戦略 - 再帰的または反復的な検索アプローチ - 応答生成の強化: ▶ 取得された知識と内部知識の矛盾の処理 - パフォーマンス向上のための教師あり微調整 - 18
  9. 4.3 反復的RAG 計画ベースのアプローチ: ▶ 段階的な検索計画を生成(例: ReAct, IRCoT, RAT) - 思考の連鎖(Chain

    of Thought)を使用してRAGパイプラインを導く - 情報ギャップ埋め込みベースの方法: ▶ ITRG: 反復的な検索-生成コラボレーション - FLARE: 低確率トークンの再訪と修正 - Self-RAG: 検索継続を決定するためのモデル微調整 - 22
  10. 4.4 グラフ/ツリー質問応答 従来の知識グラフ: ▶ LLMの事前学習と推論段階でKGを統合 - 様々なKGタスクにLLMを使用 - データチャンクグラフ/ツリー: ▶

    テキストチャンクをノードとして使用し、エッジは関係を表現 - アプローチ: Knowledge-Graph-Prompting, MoGG, RAPTOR, GraphRAG - 23
  11. 5.2 課題と解決策 プロンプト最適化コスト: ▶ プロンプトの調整に高い時間と計算要求 - 労働集約的な手動設計プロセス - 限定的な解釈可能性: ▶

    プロンプトがLLM応答に与える影響の判断困難 - LLMの意思決定プロセスにおける透明性の欠如 - 27
  12. 5.4 CoTプロンプティング 拡張推論を必要とする複雑な根拠に効果的 ▶ アプローチ: ▶ よく研究された問題に対する手動CoTプロンプト設計 - 自動CoT生成(例: Automate-CoT)

    - LLMを中心としたエージェントワークフロー構築 - 様々な分野での応用: ▶ ソフトウェア開発(例: MetaGPT) - カスタマーサービス - 医療質問応答 - 29
  13. 6.2 課題と解決策 論理的検索: ▶ クエリの真の対象を捉えることの難しさ - 論理的類似性を持つテキストセグメントの特定 - データ不足: ▶

    関連情報が分散した知識や例に埋め込まれていることが多い - データの解釈と統合における堅牢な能力が必要 - 32
  14. 6.3 オフライン学習 データセットから規則やガイドラインを特定・抽出 ▶ アプローチ: ▶ LLMベースの根拠生成(例: STaR, LXS) -

    誤りベースの原則形成(例: GL, LEAP, RICP) - 複数の技術を組み合わせた統合手法(例: MedPrompt, Agent Hospital) - 33
  15. 6.5 ファインチューニング LLMが新しい専門分野の根拠を迅速に把握できるようにする ▶ アプローチ: ▶ 指示微調整: ペアデータ(指示、出力)を使用 - アダプタ微調整:

    小規模アダプタモデルをLLMと統合 - プレフィックス/プロンプト微調整: 入力前に訓練可能なベクトルを追加 - 低ランク適応: 低ランク制約を通じて訓練可能なパラメータを削減 - 35
  16. データ強化LLMアプリケーションの分類 4つのレベルに分類され、それぞれ固有の課題と解決策がある ▶ LLMに知識を注入する3つのメカニズム: ▶ i. コンテキストベースの抽出: 簡潔に説明されたデータに適している - ii.

    小規模モデルトレーニング: トレーニング時間の短縮を提供するが、性能に上限の可能性 - iii. 直接微調整: 大規模モデルの能力を活用するが、知識喪失のリスク - 38
  17. LLM: Large Language Model(大規模言語モデル) ▶ RAG: Retrieval-Augmented Generation(検索拡張生成) ▶ CoT:

    Chain of Thought(思考の連鎖) ▶ ICL: In-Context Learning(文脈内学習) ▶ KG: Knowledge Graph(知識グラフ) ▶ NL2SQL: Natural Language to SQL(自然言語からSQLへの変換) ▶ TEMPERA: TEMPlate-based Exploration for Reinforcement learning of Augmented prompts 強化学習を用いてプロンプト を最適化する手法。 ▶ FLARE: Feedback Loops for Augmenting Retrieval Efficiency 生成された回答の低確率部分を反復的に改善する検索拡張手 法。 ▶ 46
  18. MoGG: Multi-order Graph-Granularity Reasoning 多階層のグラフ構造を用いて推論を行う技術。 ▶ OPRO: Optimizing Prompts through

    Reinforcement and Observation 強化学習と観察を通じてプロンプトを最適化する手 法。 ▶ STaR: Self-Taught Reasoner LLMが自身で生成した推論過程から学習を行う手法。 ▶ LXS: Learning to Explain from Scratch LLMに説明生成能力を獲得させる手法。 ▶ GL: Guideline Learning エラーから学習し、将来のタスクのためのガイドラインを形成する手法。 ▶ LEAP: Learning from Errors and Principles 誤りと原則から学習し、高レベルの推論能力を獲得する手法。 ▶ RICP: Retrieved In-Context Principles 過去の誤りから学習し、文脈内で適用可能な原則を抽出する技術。 ▶ MedPrompt: Medical Prompting 医療分野特化型の自己検証を含むプロンプト生成手法。 ▶ Agent Hospital: 医療分野での複数エージェント協調システム。反省と経験検索を活用。 ▶ 47