Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
レアジョブのデータ活用の今とこれから
Search
hayata-yamamoto
August 28, 2019
Technology
0
820
レアジョブのデータ活用の今とこれから
#rarejob_medpeer で使いました。
hayata-yamamoto
August 28, 2019
Tweet
Share
More Decks by hayata-yamamoto
See All by hayata-yamamoto
困難は分割せよ。既存のサービスにナレッジベースなAI駆動開発を導入していくための一つの方略
hayata_yamamoto
0
130
知識を蓄積していくAI駆動開発
hayata_yamamoto
16
8.5k
価値提供プロセスを試行錯誤し続けてきた話
hayata_yamamoto
0
150
AppSync と仲良くなろう
hayata_yamamoto
1
220
今日から機械学習チームを始めるには
hayata_yamamoto
0
180
医療と機械学習とMRI
hayata_yamamoto
0
240
ざっくりとわかる分析
hayata_yamamoto
0
190
Make Questions to Solve Problems ~how to use science as tool~
hayata_yamamoto
0
44
Other Decks in Technology
See All in Technology
Wasm元年
askua
0
150
Clineを含めたAIエージェントを 大規模組織に導入し、投資対効果を考える / Introducing AI agents into your organization
i35_267
4
1.7k
OpenHands🤲にContributeしてみた
kotauchisunsun
1
470
2年でここまで成長!AWSで育てたAI Slack botの軌跡
iwamot
PRO
4
780
米国国防総省のDevSecOpsライフサイクルをAWSのセキュリティサービスとOSSで実現
syoshie
2
1.2k
Leveraging Open-Source Tools for Creating 3D Tiles in the Urban Environment
simboss
PRO
0
110
作曲家がボカロを使うようにPdMはAIを使え
itotaxi
0
140
ドメイン特化なCLIPモデルとデータセットの紹介
tattaka
1
190
GitHub Copilot の概要
tomokusaba
1
140
Javaで作る RAGを活用した Q&Aアプリケーション
recruitengineers
PRO
1
120
Github Copilot エージェントモードで試してみた
ochtum
0
110
あなたの声を届けよう! 女性エンジニア登壇の意義とアウトプット実践ガイド #wttjp / Call for Your Voice
kondoyuko
4
480
Featured
See All Featured
The Cost Of JavaScript in 2023
addyosmani
51
8.5k
Performance Is Good for Brains [We Love Speed 2024]
tammyeverts
10
930
Why You Should Never Use an ORM
jnunemaker
PRO
58
9.4k
A better future with KSS
kneath
239
17k
Faster Mobile Websites
deanohume
307
31k
10 Git Anti Patterns You Should be Aware of
lemiorhan
PRO
657
60k
Fight the Zombie Pattern Library - RWD Summit 2016
marcelosomers
233
17k
GraphQLの誤解/rethinking-graphql
sonatard
71
11k
It's Worth the Effort
3n
185
28k
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
138
34k
Understanding Cognitive Biases in Performance Measurement
bluesmoon
29
1.8k
Creating an realtime collaboration tool: Agile Flush - .NET Oxford
marcduiker
30
2.1k
Transcript
レアジョブのデータ活用の今とこれから Hayata Yamamoto RareJob.inc
Self-intro - Name: - Hayata Yamamoto (24) - Role: -
Data Scientist @EdTech Lab - Likes: - Natural Language Processing - Data Engineering - Podcast - Recent: - Certificateをとりました
Today’s Theme データ活用の文化を維持しつつ、 より使いやすくするための分析基盤を作っている話
Agenda 1. どのようにデータは使われているか (As Is) 2. どのようにデータを使っていきたいか (To Be) 3.
どのように差分を埋めるか
どのようにデータを使っているか
Pros / Cons Pros: • エンジニアや企画職が SQLを書いて分析している • 分析結果を元に意思決定が行われる •
機械学習を用いた研究開発プロジェクトが進行中 Cons: • データウェアハウス( DWH)が形骸している • マイクロサービスのDBを横断的に利用できていない • 大規模なデータを使ったデータ分析がしにくい • データ分析に必要なドメイン知識が多い
What’s the problem? Pros: • エンジニアや企画職が SQLを書いて分析している • 分析結果を元に意思決定が行われる •
機械学習を用いた研究開発プロジェクトが進行中 Cons: • データウェアハウス( DWH)が形骸している • マイクロサービスのDBを横断的に利用できていない • 大規模なデータを使ったデータ分析がしにくい • データ分析に必要なドメイン知識が多い 技術的に問題を解決するだけで大幅にデータ活用が進むのでは? データ活用の意識がある 技術的に解決できる問題
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データに関わる問題をマトリックスにまとめたもの
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データ活用の文化はすでにあるのに、データが使いにくいのは大きな損失 →プロダクト改善がしにくくなってしまう
解決法がわかっている 解決法がわかっていない 顕在化した 問題 データ分析によるプロダクト改善 データを使いやすくする データ活用の文化をつくる 潜在的な 問題 プロトタイピング
データマイニング 研究開発 (パーソナライズ、自動化など) データが使いにくいと、試行錯誤の効率が非常に悪い →成果に結びつきにくくなってしまう
どのようにデータを使っていきたいか
None
None
None
要するに データ使って学習体験を向上させたい
どのように差分を埋めるか
As Is / To Be As Is • データを使って意思決定する文化を十分に活かせてない •
ノウハウやドメイン知識が属人化しがち • データへのアクセスが悪く、研究開発で試行錯誤しにくい To Be • プロダクトを通じてユーザーが英語を話せるようになる • 効率的な学習体験と新しい学習機会を提供する • それぞれの個人に合わせた学習ができるようにする
What’s the gaps? 1. データ分析する文化がある, but データが使いにくい 2. ユーザーに最適化したサービスを提供したい, but
知識が属人化しがち 3. 新しい体験を提供したい, but 研究開発の試行錯誤がしにくい データのアクセスや仕組みで解決できそう
How to solve? • BigQueryをハブにして、マイクロサービスからデータを集める ◦ データの整形やテーブルの整理をしておく • 全社で必要なデータをあらかじめ可視化しておく ◦
知見の共有、認識の統一、属人化の防止 • 集めたデータを再利用できるようにする ◦ 馴染みのあるツールや、新しいツールで使えるようにする (Redashなど) • 大規模なデータが必要な分析ロールはBQを直接叩く ◦ サーバーのスケールアウト問題からの脱却。データの再現性を確保
できる限りシンプルに
ToDo • 既存の仕組みはバッチ処理に最適化された設計になっている ◦ アプリやWebRTCなどもあるので、ストリームデータも将来的には扱いたい • AWSとGCPの使い分け、住み分け ◦ データの頻度や鮮度を求めると費用対効果を損なう懸念 •
マイクロサービスの開発とうまく並走させる ◦ 分析基盤を意識しないで済む設計にしたい • 分析基盤を一緒に作ってくれる仲間を見つける ◦ We’re Hiring!