Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIエージェントを用いたメンバー育成支援について

 AIエージェントを用いたメンバー育成支援について

Avatar for t.kaneko

t.kaneko

March 22, 2026
Tweet

Other Decks in Technology

Transcript

  1. 成果物の散在: 育成状況に関する情報が Slack・Google Docs・Sheets・Meet 等に分散。横断 的に把握するには認知負荷が高い 状況把握の属人化: 1on1 準備にメンバー 1

    人あたり 15〜30 分。トレーナーも自分が対応した レビュー以外は把握しにくい 増員に対するスケーラビリティ: メンバー・トレーナー双方の増員が見込まれる中、リーダーがボ トルネックになり一人ひとりに十分な時間を確保できなくなる危機感 フルリモート × 育成における3つの壁 6
  2. チャット AI に都度聞くだけでは横断的なデータの蓄積・分析はでき ず、BI ツールでは自然言語の意味理解が難しい。そこでデータパイプラ インを自作するアプローチを選んだ Claude Code の登場で、開発が本務でなくても手を動かせる敷居に なっていた

    散在するデータを自動収集し、業務固有のコンテキストを整備して生 成 AI に渡す仕組みを構築 まずコードを書く前に、組織情報や育成モデルを整理し、生成 AI と 壁打ちしながら要件定義するところから始めた どう解決しようとしたか 7
  3. LLMを使わない 表形式データや機械的な突合が 可能なデータ Google Sheets 等の表形式 データ 計算・集約・突合などの機械 的処理 →

    確実・低コスト LLMに任せる (Claude Haiku) 構造が不定な自然言語テキスト トレーナーとのやり取り 振り返り資料 会議メモ → 柔軟・意味理解 使い分けのポイント 全てをLLMに任せない 表形式で構造化できるものは プログラムで確実に処理 LLMは構造が不定なテキスト だけに使う → コストと精度の両立に効いて くる 前処理の工夫:LLMに頼る部分と頼らない部分 10
  4. コンテキストなし(素のLLM) 「あるメンバーの対応に時間がかかっている。  アドバイスの例を提示して」と質問 汎用的な確認ポイントを列挙(技術知識?調査 方法?文章作成?) アドバイスは一般論(ハンズオン、テンプレー ト整備) 「特定の状況があれば具体的に…」→ コンテ キスト不足を生成

    AI 自身が示唆 コンテキストあり(本システム) 同じ質問 対応実績から定量的に現状を把握 振り返りデータから行動面の課題を特定 過去の好調だった週と比較し具体的な改善アプ ローチを提案 複数のデータソースを横断して課題の構造を読 み解いた助言 コンテキストの有無による出力の違い(※サンプル) 14
  5. コンテキストを整備してデータの意味が伝わるようになっても、評価の軸がなければ生成の度に結 果がブレる。そこで、リーダーやトレーナーが育成判断の際に重視していた観点を言語化し、5 つ の軸としてプロンプトに組み込んだ 軸 観点 技術領域の広がり 慣れた対応にとどまらず、未知の領域にも踏み出せているか 対応の安定性 ステージに見合ったペースで安定的に対応できているか

    自律性 トレーナーの指導なしに方針を立案・実行できているか 課題認識 自身の課題を認識し、改善行動に移せているか レビュー依頼の質 レビュー依頼時の情報整理度・顧客課題の理解度 「自律性」の例: レビューのやり取りの密度 × フィードバック内容が方針面か形式面かで判定 5軸スコアリングと「自律性」の数値化 16
  6. 工夫 1〜5点の判定基準を評価基準表としてプロンプト内に明記 全スコアにデータ根拠の明記を必須化 在籍期間や成長段階に応じて評価の目線を調整 JSON Schema(Structured Outputs)で出力を厳密に定義 課題 同一入力でもLLMの判定にはブレがある(Temperature 0.0等で抑制するが完全ではない)

    データが少ない週はスコアの確度が下がるため、判定を控えめにする処理を追加 改善サイクル: 毎週の分析結果を自分で確認し、ズレを感じたらプロンプトにフィードバック。 Bedrock Prompt Management で再デプロイなしに更新 プロンプト設計の工夫と試行錯誤 17
  7. Claude Code(Maxプラン / Opus)を活用して実装。開発期間は約1 ヶ月 コンポーネント 期間 項目 月額コスト パイプライン

    約2週間 Bedrock推論 ~$40 ダッシュボード 約1週間 インフラ(Lambda, EC2等) ~$5 AIエージェント 約1週間 Claude Max(開発用) $100 ← 一番重い 開発工数とランニングコスト 20
  8. 定量 指標 Before After 1on1 準備時間 15-30分/人 5-10分/人 (約60%短縮) メンバー状況の把握

    週次 1on1 時点 日次〜週次で随時 情報参照 各ツールを個別に確認 ダッシュボード 1 画面 トレーナー間の共有 週次定例で口頭共有 ダッシュボードで随時 定性 件数だけでなく、対応の質や挑戦の幅まで追跡できるようになった 感覚ベースからデータを見ながらの議論に変わった 分析結果と根拠がセットで表示されるため、安心感を持って参照できるとトレーナーから好評 効果 21
  9. 1. まず材料を揃える LLMに頼る部分と頼らない部分を見極める。全てを LLM に任せず、表形式データはプログラム で確実に処理 2. 生成 AI にはコンテキストを丁寧に渡す

    生データだけでは表面的な分析にしかならなかった。業務固有のコンテキストの整備が分析精度 を大きく左右した 3. 生成 AI は育成を代替しない、育成を支援する 生成 AI がデータの収集・整理・分析を担い、人間は判断・対話・関係構築に集中する 散在する情報を集め、ドメイン固有のコンテキストを添えて生成 AI に渡すという進め方は、育成に 限らず参考になるかもしれません ブログ記事もご覧ください! 「生成AIでメンバー育成を『見える化』してみた」 https://dev.classmethod.jp/articles/visualization-of-member-training-process-using-genai/ まとめ 22