Slide 1

Slide 1 text

社内規程RAGの精度を73.3% → 100%に改善した話 複雑な手法より、まずは「チャンクサイズ」を見直 すべき理由 Yuchen Lin(リン ユウチェン)

Slide 2

Slide 2 text

自己紹介 & プロジェクト概要 自己紹介 ● 名前:リン ユウチェン ● 実績:AIハッカソンのファイナリスト10組 ● 最近のマイブーム:OpenClaw(旧ClawdBot) プロジェクト概要 ● RAGを探索するデモプロジェクト ● 目的:チャンキング戦略を検証する ● 開発:Next.js + FastAPI + Gemini 2.0 Flash ● 課題: 社内規程(通勤手当、休暇など)を対象にした RAG。最初は「正解率 73.3%」という微妙な結果に。

Slide 3

Slide 3 text

RAGを「Google検索」で例えると? ステップ1:検索 ステップ 2:読解 クエリを送信すると、システムは「 上位K件」の結果を見つける →(Google検索結果1ページ目 のようなもの) そのK件の結果をLLMに渡します →人間がスニペットを読む ように 検索結果をもとに、ユーザのクエ リに回答する ステップ 3:回答 答えが検索結果の2ページ目にある場合、LLMはそ れを見ることができない。 どんなに「賢い」LLMであっても、読んでいないこと には答えられない。

Slide 4

Slide 4 text

RAGが失敗する「あるある」 3選

Slide 5

Slide 5 text

解決への体系的アプローチ:3つの改善軸でボトルネックを特定 精度低下の要因を特定するため、以下の 3つの改善軸 に沿って複数の技術的な戦略を評価しまし た。これにより、最も効果的な打ち手は何かをデータに基づき判断します。 データ (Data) チャンキング (Chunking) 検索 (Retrieval) 生成 (Generation) 1. データ自体の最適化 (Data Preprocessing) 検索対象のドキュメント構造 そのもの を改善できるか。 テスト項目:従業員種別ごと のドキュメ ント分割 2. チャンキングの最適化 (Chunking Strategy) テキストをどのように分割・保持する か。 テスト項目:標準、大きめ、親子チャン ク、HyDE(仮説的質問) 3.検索後処理の導入 (Post-Retrieval) 検索結果をどう絞り込み、順位付けす るか。 テスト項目:クロスエンコーダーによる 再ランク付け

Slide 6

Slide 6 text

検証結果:データ最適化がほかの手法を凌駕 テスト条件 ● 評価クエリ: 15問(例外規定の取得をテスト) ● 各戦略で同じクエリセットを実行 ● 正解判定: 必須キーワード の有無で自動判定

Slide 7

Slide 7 text

チャンキング戦略の比較分析:なぜ「大きなチャンク」が勝ったのか 1. 標準チャンク イメージ Google検索に表示される 1段落だけ を読 んで回答しようとする状態。 イメージ 検索結果リンク(子) をクリックして、前後 の文脈を含めた「 ページ全体(親) 」を LLMに渡す状態。 イメージ Google検索に表示される 数段落分 を読 んで回答しようとする状態。 2. 大き目チャンク 3. 親子チャンク

Slide 8

Slide 8 text

さらなる精度向上に向けた高度なアプローチ 1. 「聞き返す」検索 2. マルチインデックス振り分け 3.「意味の切れ目」の自動認識 ユーザーの質問が曖昧なとき、勝手に 検索せずエージェントが 逆質問 する。 規程の種類ごとに DBを分け、クエリにお じてエージェントが 最適な DBを選択する。 文書の構造や意味のまとまりを理解し、 動 的にチャンクサイズを変える。

Slide 9

Slide 9 text

Zenn 記事をチェック! ご視聴ありがとうご ざいました。 Githubをチェック!