Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
レアジョブのデータ活用の今とこれから
Search
hayata-yamamoto
August 28, 2019
Technology
0
840
レアジョブのデータ活用の今とこれから
#rarejob_medpeer で使いました。
hayata-yamamoto
August 28, 2019
Tweet
Share
More Decks by hayata-yamamoto
See All by hayata-yamamoto
生成AI動向まとめ 2025年7月
hayata_yamamoto
1
43
テック系起業家のための 会計入門 数字を味方につける経営ガイド
hayata_yamamoto
0
24
バランスト・スコアカード(BSC)
hayata_yamamoto
0
18
データ同化入門
hayata_yamamoto
0
38
中小企業のための 行政デジタルID活用ガイド
hayata_yamamoto
0
27
AIエージェントにおける評価指標と評価方法:本番環境での包括的検証戦略
hayata_yamamoto
0
53
統計的意思決定論の入門
hayata_yamamoto
0
81
コンテキストエンジニアリング入門
hayata_yamamoto
0
160
困難は分割せよ。既存のサービスにナレッジベースなAI駆動開発を導入していくための一つの方略
hayata_yamamoto
0
190
Other Decks in Technology
See All in Technology
Karate+Database RiderによるAPI自動テスト導入工数をCline+GitLab MCPを使って2割削減を目指す! / 20251206 Kazuki Takahashi
shift_evolve
PRO
1
430
Lambdaの常識はどう変わる?!re:Invent 2025 before after
iwatatomoya
0
190
知っていると得する!Movable Type 9 の新機能を徹底解説
masakah
0
320
意外とあった SQL Server 関連アップデート + Database Savings Plans
stknohg
PRO
0
280
Agentic AI Patterns and Anti-Patterns
glaforge
1
190
HIG学習用スライド
yuukiw00w
0
110
生成AI時代の自動E2Eテスト運用とPlaywright実践知_引持力哉
legalontechnologies
PRO
0
200
非CUDAの悲哀 〜Claude Code と挑んだ image to 3D “Hunyuan3D”を EVO-X2(Ryzen AI Max+395)で動作させるチャレンジ〜
hawkymisc
1
150
GitLab Duo Agent Platformで実現する“AI駆動・継続的サービス開発”と最新情報のアップデート
jeffi7
0
200
グレートファイアウォールを自宅に建てよう
ctes091x
0
140
AIと二人三脚で育てた、個人開発アプリグロース術
zozotech
PRO
0
660
AWS Bedrock AgentCoreで作る 1on1支援AIエージェント 〜Memory × Evaluationsによる実践開発〜
yusukeshimizu
4
310
Featured
See All Featured
A designer walks into a library…
pauljervisheath
210
24k
The Invisible Side of Design
smashingmag
302
51k
Cheating the UX When There Is Nothing More to Optimize - PixelPioneers
stephaniewalter
285
14k
GraphQLの誤解/rethinking-graphql
sonatard
73
11k
実際に使うSQLの書き方 徹底解説 / pgcon21j-tutorial
soudai
PRO
196
69k
Testing 201, or: Great Expectations
jmmastey
46
7.8k
Build The Right Thing And Hit Your Dates
maggiecrowley
38
3k
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Music & Morning Musume
bryan
46
7k
StorybookのUI Testing Handbookを読んだ
zakiyama
31
6.4k
Building Applications with DynamoDB
mza
96
6.8k
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
31
9.8k
Transcript
レアジョブのデータ活用の今とこれから Hayata Yamamoto RareJob.inc
Self-intro - Name: - Hayata Yamamoto (24) - Role: -
Data Scientist @EdTech Lab - Likes: - Natural Language Processing - Data Engineering - Podcast - Recent: - Certificateをとりました
Today’s Theme データ活用の文化を維持しつつ、 より使いやすくするための分析基盤を作っている話
Agenda 1. どのようにデータは使われているか (As Is) 2. どのようにデータを使っていきたいか (To Be) 3.
どのように差分を埋めるか
どのようにデータを使っているか
Pros / Cons Pros: • エンジニアや企画職が SQLを書いて分析している • 分析結果を元に意思決定が行われる •
機械学習を用いた研究開発プロジェクトが進行中 Cons: • データウェアハウス( DWH)が形骸している • マイクロサービスのDBを横断的に利用できていない • 大規模なデータを使ったデータ分析がしにくい • データ分析に必要なドメイン知識が多い
What’s the problem? Pros: • エンジニアや企画職が SQLを書いて分析している • 分析結果を元に意思決定が行われる •
機械学習を用いた研究開発プロジェクトが進行中 Cons: • データウェアハウス( DWH)が形骸している • マイクロサービスのDBを横断的に利用できていない • 大規模なデータを使ったデータ分析がしにくい • データ分析に必要なドメイン知識が多い 技術的に問題を解決するだけで大幅にデータ活用が進むのでは? データ活用の意識がある 技術的に解決できる問題
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データに関わる問題をマトリックスにまとめたもの
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データ活用の文化はすでにあるのに、データが使いにくいのは大きな損失 →プロダクト改善がしにくくなってしまう
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データが使いにくいと、試行錯誤の効率が非常に悪い →成果に結びつきにくくなってしまう
どのようにデータを使っていきたいか
None
None
None
要するに データ使って学習体験を向上させたい
どのように差分を埋めるか
As Is / To Be As Is • データを使って意思決定する文化を十分に活かせてない •
ノウハウやドメイン知識が属人化しがち • データへのアクセスが悪く、研究開発で試行錯誤しにくい To Be • プロダクトを通じてユーザーが英語を話せるようになる • 効率的な学習体験と新しい学習機会を提供する • それぞれの個人に合わせた学習ができるようにする
What’s the gaps? 1. データ分析する文化がある, but データが使いにくい 2. ユーザーに最適化したサービスを提供したい, but
知識が属人化しがち 3. 新しい体験を提供したい, but 研究開発の試行錯誤がしにくい データのアクセスや仕組みで解決できそう
How to solve? • BigQueryをハブにして、マイクロサービスからデータを集める ◦ データの整形やテーブルの整理をしておく • 全社で必要なデータをあらかじめ可視化しておく ◦
知見の共有、認識の統一、属人化の防止 • 集めたデータを再利用できるようにする ◦ 馴染みのあるツールや、新しいツールで使えるようにする (Redashなど) • 大規模なデータが必要な分析ロールはBQを直接叩く ◦ サーバーのスケールアウト問題からの脱却。データの再現性を確保
できる限りシンプルに
ToDo • 既存の仕組みはバッチ処理に最適化された設計になっている ◦ アプリやWebRTCなどもあるので、ストリームデータも将来的には扱いたい • AWSとGCPの使い分け、住み分け ◦ データの頻度や鮮度を求めると費用対効果を損なう懸念 •
マイクロサービスの開発とうまく並走させる ◦ 分析基盤を意識しないで済む設計にしたい • 分析基盤を一緒に作ってくれる仲間を見つける ◦ We’re Hiring!