Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
独自アクセスログ基盤の構築
Search
Sponsored
·
Ship Features Fearlessly
Turn features on and off without deploys. Used by thousands of Ruby developers.
→
Recruit
PRO
February 27, 2026
Technology
1
150
独自アクセスログ基盤の構築
2026/2/27に、RECRUIT TECH CONFERENCE 2026で発表した山本の資料になります。
Recruit
PRO
February 27, 2026
Tweet
Share
More Decks by Recruit
See All by Recruit
まなび領域における生成AI活用事例
recruitengineers
PRO
2
160
AI時代にエンジニアはどう成長すれば良いのか?
recruitengineers
PRO
1
260
AIを用いたカスタマーサポートの業務プロセス・組織変革の実現
recruitengineers
PRO
1
150
問い合わせ自動化の技術的挑戦
recruitengineers
PRO
2
240
「Air ビジネスツールズ」のクライアントサポートにおける生成 AI 活用
recruitengineers
PRO
0
110
AI活用のためのアナリティクスエンジニアリング
recruitengineers
PRO
2
150
SaaS事業のデータマネジメント事例
recruitengineers
PRO
0
140
Kaggleで鍛えたスキルの実務での活かし方 競技とプロダクト開発のリアル
recruitengineers
PRO
1
470
LLM のプロダクト導入における開発の裏側と技術的挑戦
recruitengineers
PRO
1
190
Other Decks in Technology
See All in Technology
How to install a gem
indirect
0
1.8k
OPENLOGI Company Profile for engineer
hr01
1
61k
ADK + Gemini Enterprise で 外部 API 連携エージェント作るなら OAuth の仕組みを理解しておこう
kaz1437
0
220
The essence of decision-making lies in primary data
kaminashi
0
160
【社内勉強会】新年度からコーディングエージェントを使いこなす - 構造と制約で引き出すClaude Codeの実践知
nwiizo
27
13k
Change Calendarで今はOK?を仕組みにする
tommy0124
1
130
サイボウズ 開発本部採用ピッチ / Cybozu Engineer Recruit
cybozuinsideout
PRO
10
76k
出版記念イベントin大阪「書籍紹介&私がよく使うMCPサーバー3選と社内で安全に活用する方法」
kintotechdev
0
100
タスク管理も1on1も、もう「管理」じゃない - KiroとBedrock AgentCoreで変わった“判断の仕事”
yusukeshimizu
0
140
Blue/Green Deployment を用いた PostgreSQL のメジャーバージョンアップ
kkato1
0
150
TUNA Camp 2026 京都Stage ヒューリスティックアルゴリズム入門
terryu16
0
580
Embeddings : Symfony AI en pratique
lyrixx
0
370
Featured
See All Featured
Leveraging LLMs for student feedback in introductory data science courses - posit::conf(2025)
minecr
1
210
Improving Core Web Vitals using Speculation Rules API
sergeychernyshev
21
1.4k
Rails Girls Zürich Keynote
gr2m
96
14k
The Invisible Side of Design
smashingmag
302
51k
The Psychology of Web Performance [Beyond Tellerrand 2023]
tammyeverts
49
3.3k
The browser strikes back
jonoalderson
0
850
Conquering PDFs: document understanding beyond plain text
inesmontani
PRO
4
2.5k
Balancing Empowerment & Direction
lara
5
1k
My Coaching Mixtape
mlcsv
0
86
Bridging the Design Gap: How Collaborative Modelling removes blockers to flow between stakeholders and teams @FastFlow conf
baasie
0
490
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
31
3.1k
Tips & Tricks on How to Get Your First Job In Tech
honzajavorek
0
470
Transcript
RECRUIT TECH CONFERENCE 2026 マッチング技術の進化 独自アクセスログ基盤の構築 インディードリクルートテクノロジーズ 山本 航平
山本 航平 ホラー映画鑑賞 経歴 / Career 2019年にリクルートテクノロジーズ(現リクルート)に キャリア入社。 人材領域のデータ基盤の開発運用を担当しています。 趣味
/ Hobbies (株)インディードリクルートテクノロジーズ HRプロダクト データ データソリューションユニット データエンジニアリング部
今日の内容をざっくり3行で 人材領域で利用しているアクセス解析ツールを、 独自のログ収集基盤にリプレースし、 コスト / 保守性 / データ鮮度の3つが GOOD な状態にしました
Agenda 1. 背景と課題 2. 解決 3. 結果
Agenda 1. 背景と課題 2. 解決 3. 結果
背景と課題 人材領域で生じていたアクセスログの3つの課題 ① ログ設計の管理が横断的にできていない ② データウェアハウスで分析可能になるまでのリードタイムが長い ③ アクセス解析と機械学習でログを二重取得しており効率が悪い
背景と課題 ① ログ設計の管理が横断的にできていない • 施策ごと(ABテストや、画面改修等)にadhocにログ設計と追加をしているため、プロダ クト横断でのログ設計思想がない • 施策担当者やプロダクトごとに設計がブレてしまい、データマートでの利用の都度仕様の キャッチアップと検算から入らなければならない
背景と課題 ② データウェアハウスで分析可能になるまでのリードタイムが長い • アクセス解析ツール上ではニアリアルタイムにデータ更新されるが、データウェアハウスに ある他データと組み合わせないとできない分析が多数ある • そのためアクセス解析ツールに付帯しているExport機能を使ってデータをデータウェアハ ウス(BigQuery)に連携して分析利用している •
このExport機能にサービスレベルがなく、だいたい2~3時間後にデータが入ってくるだろ うという経験則での運用になっていた(かつ遅い)
背景と課題 ③ アクセス解析と機械学習でログを二重取得しており効率が悪い • 前ページに記載した制約(2~3hの遅延)があるため、機械学習施策でのニアリアルタイム なデータ活用に対してデータ鮮度が要求を満たさない • 機械学習用の別データパイプラインを構築することになり、結果、アクセスログを二重取得 している状態になっていた
Agenda 1. 背景と課題 2. 解決 3. 結果
解決 基盤刷新とセットでログ設計運用の見直しをする • 課題を同時に解決するため、ログ収集基盤の刷新を決定 • 既存サービスを継続利用することも考えたが、課題③の解決や、インフラコストを大幅に削 減できる見立て(現行の10~20%程度まで下がる)があったため、独自基盤を作る方向と なった • アクセス解析ツールが入っているサービス側のリアーキテクチャが同時期に実行されていた
ため、そことタイミングを合わせることで導入をスムーズにした
構成のBefore / After
構成のBefore / After ログの二重管理 2 ~ 3時間の遅延 (SLA なし)
構成のBefore / After ログの二重管理 2 ~ 3時間の遅延 (SLA なし) 1秒未満
一本化 施策リリース後、即時に分析が可能になり、検知や対応が高速に。 機械学習モデルの特徴量として利用可能なデータの種類が増加。
アーキテクチャ • インフラは AWS • ログを直接受け取るのは ALB + ECS Fargate。API
は Rust で実装 • メッセージングシステムは Kafka、共通の加工処理を Flink、DWHへの連携は BigQuery Connector。全て Confluent Cloud 上で実行 • Online Feature Store (DynamoDB)への連携は Databricks or Custom Connector
アーキテクチャ • DNS、ALB は共通で API Key を元にサービスごとの API へリクエストをルー ティング
• Topic や Flink のクエリは サービスごと • BigQuery Connector は複 数 Topic をサポートしてい る、かつ、スケーラブルで あるため共用
変更プロセスのBefore / After 各案件で自由に 実装まで決定 基本はそのまま 実装される
変更プロセスのBefore / After 各案件で自由に 実装まで決定 基本はそのまま 実装される 担当者は 分析要求を出す 共通の担当者が
分析要求から実装 を決定
Agenda 1. 背景と課題 2. 解決 3. 結果
結果 ① ログ設計の管理が横断的にできていない ② データウェアハウスで分析可能になるまでのリードタイムが長い ③ アクセス解析と機械学習でログを二重取得しており効率が悪い 🟢 基盤刷新に合わせてフローを刷新し集約された管理を確立 🟢
一本化して二重取得を撤廃。コスト面も既存の10~20%程度まで圧縮 🟢 2~3h → 数秒まで短縮