Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Claude Codeを使って3カ月の分析プロジェクトが 60時間で終わった話

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for TomoyukiMurakami TomoyukiMurakami
March 19, 2026
11

Claude Codeを使って3カ月の分析プロジェクトが 60時間で終わった話

Avatar for TomoyukiMurakami

TomoyukiMurakami

March 19, 2026

More Decks by TomoyukiMurakami

Transcript

  1. 13 / 16 成果物の全体像 ネットワークモデル ノード+エッジで構成された 構造化データ テキスト分類結果 大量テキスト →

    ノードへのマッピング 分析レポート 基礎・ネットワーク・切り口別 チャート多数 インタラクティブ可視化 D3.jsネットワークビューア アクション提案 分析結果に基づく提案 +実行ロードマップ Pythonスクリプト 全てAI生成、再実行可能な パイプライン
  2. 3 / 16 分析の全体像 — 8ステップ 1 分類体系の構築 テキストからラベル抽出 2

    関係性の構築 ノード間エッジを定義 3 テキスト分類 大量テキストをマッピング 4 基礎統計分析 頻度・Lift値・分布 5 ネットワーク分析 共起・中心性・クラスタ D3.jsによる可視化 6 切り口別分析 多角的に比較 7 提案策定 アクション提案 8 エグゼクティブ サマリー 意思決定者向け要約 最大のボトルネック:Step 3 テキスト分類 学習データ作成 → 人手ラベリング → 一致率検証 → ルール修正…の反復
  3. 4 / 16 従来アプローチの工数見積 3カ月 = 約480時間 工程 従来の作業 想定工数

    分類体系の設計 専門家との議論、文献調査、反復設計 2〜3週間 関係性の定義 専門家レビュー、合意形成 2〜3週間 テキスト分類 データ前処理、アノテーション、モデリング、一致率検証 3〜4週間 統計分析 分析設計、コーディング、可視化、レビュー 2〜3週間 ネットワーク分析 グラフ分析の設計・実装・解釈 2週間 レポーティング レポート執筆、チャート作成、レビュー 2〜3週間 テキスト分類が最大のボトルネック — 学習データ作成に数百〜数千件の人手ラベル付けが必要
  4. 5 / 16 テキスト分類の革新 従来の機械学習 × 学習データの作成が必要(数百〜数千件) × 人手でのラベル付け →

    致率検証 × ラベル体系変更 → 学習データから作り直し × 数百クラスだと精度が出にくい LLMゼロショット分類 ✓ 学習データ一切不要 ✓ プロンプト書き換えで即座に再実行 ✓ 数百クラスのマルチラベルも実用精度 ✓ Confidence scoreで品質管理
  5. 7 / 16 技術スタック 役割 技術 コード生成・設計 Claude Code テキスト分類・関係推論

    Gemini API(構造化出力 + Pydantic) 統計分析 Python(scipy, networkx) 可視化 matplotlib / D3.js Claude Code(開発パートナー) 設計書作成 / 全Pythonスクリプト生成 分析方針の議論 / レポート自動生成 Gemini API(分析エンジン) テキスト→ノード分類(バッチ処理) ノード間の関係推論 / テーマクラスタリング
  6. 8 / 16 Claude Codeが担った範囲 設計 フェーズ設計書、Pydanticスキーマ定義、プロンプト設計 実装 全Pythonスクリプト(一行も手書きしていない) 分析

    結果の解釈、方針転換の判断支援 レポート Markdownレポートの自動生成(チャート埋め込み) 可視化 D3.jsネットワークビューア(自己完結型HTML)
  7. 9 / 16 60時間の内訳 Phase 1 〜10時間 Day 1-2 5h

    分類体系の精製 Day 3 3h ノード間関係の試作 Day 4 2h D3.jsネットワーク可視化 Phase 2 〜50時間 Day 5-6 8h テキスト全量分類 Day 7-8 5h 全ノード関係構築 Day 9-12 12h 統計+ネットワーク分析 Day 13-15 10h 切り口別分析+サマリー Day 16-18 15h FB対応・修正・品質向上 Phase 1だけで従来3カ月分の分類体系+可視化が完成 従来 480h 60h
  8. 10 / 16 「対話しながら進める」ワークフロー 1 方針を自然言語で指示 「セグメント別のLift値を出して、ヒートマップで可視化して」 2 Claude Codeがスクリプト生成・実行

    3 結果を確認、フィードバック 「サンプル数も表示して」「表示項目を増やして」 4 即座に修正・再実行 5 レポートに統合 方針転換もスムーズ:従来「数日〜1週間」→ Claude Codeなら「30分〜1時間」
  9. 12 / 16 人間がやったこと = AIに任せなかったこと 分析フレームワークの設計 何を明らかにしたいか、どう構造化するか ドメイン知識の注入 ノードの定義、関係性の妥当性判断

    品質管理 分類結果のサンプルレビュー、閾値設定 方針判断 横断比較 → 特定セグメント深堀りへの転換 結果の解釈 統計的発見をビジネス上の示唆に翻訳 ステークホルダー対応 ワークショップ設計、報告 AIは「手を動かす」部分を引き受けた。 人間は「何をやるか」「なぜやるか」「結果をどう使うか」に集中した。
  10. 14 / 16 再現性 — 他のデータで使えるか パラメータ化済み データ差し替えで別案件にも適用可能 分類体系は汎用的 再利用可能な構造化フレームワーク

    低コスト Gemini APIの全工程コスト 約$5〜10(Flashモデル) ミニマル体制 1人のアナリスト+Claude Code+Gemini API 従来チーム3人 × 3カ月(480時間) → 1人 × 60時間 = 87%削減
  11. まとめ 1 コードは1行も手書きしていない 2 テキスト分類をLLMに委託し最大ボトルネックを解消 3 方針転換のコストがほぼゼロ 4 人間は判断に集中 5

    再現可能なパイプライン — 横展開可能 生成AIは「分析を速くする」だけでなく、「分析の試行錯誤を安くする」