Upgrade to PRO for Only $50/Year—Limited-Time Offer! 🔥
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
2019-7-19-data_ml_engineering
Search
yudeayase
July 19, 2019
Programming
0
750
2019-7-19-data_ml_engineering
yudeayase
July 19, 2019
Tweet
Share
Other Decks in Programming
See All in Programming
Canon EOS R50 V と R5 Mark II 購入でみえてきた最近のデジイチ VR180 事情、そして VR180 静止画に活路を見出すまで
karad
0
140
Spinner 軸ズレ現象を調べたらレンダリング深淵に飲まれた #レバテックMeetup
bengo4com
0
190
Grafana:建立系統全知視角的捷徑
blueswen
0
220
ZJIT: The Ruby 4 JIT Compiler / Ruby Release 30th Anniversary Party
k0kubun
1
280
公共交通オープンデータ × モバイルUX 複雑な運行情報を 『直感』に変換する技術
tinykitten
PRO
0
160
The Past, Present, and Future of Enterprise Java
ivargrimstad
0
360
Navigating Dependency Injection with Metro
l2hyunwoo
1
190
Graviton と Nitro と私
maroon1st
0
140
Flutter On-device AI로 완성하는 오프라인 앱, 박제창 @DevFest INCHEON 2025
itsmedreamwalker
1
150
AI Agent Dojo #4: watsonx Orchestrate ADK体験
oniak3ibm
PRO
0
110
Rubyで鍛える仕組み化プロヂュース力
muryoimpl
0
170
新卒エンジニアのプルリクエスト with AI駆動
fukunaga2025
0
230
Featured
See All Featured
Building a Scalable Design System with Sketch
lauravandoore
463
34k
Let's Do A Bunch of Simple Stuff to Make Websites Faster
chriscoyier
508
140k
Efficient Content Optimization with Google Search Console & Apps Script
katarinadahlin
PRO
0
250
AI: The stuff that nobody shows you
jnunemaker
PRO
1
24
Product Roadmaps are Hard
iamctodd
PRO
55
12k
How to Get Subject Matter Experts Bought In and Actively Contributing to SEO & PR Initiatives.
livdayseo
0
29
Primal Persuasion: How to Engage the Brain for Learning That Lasts
tmiket
0
190
Large-scale JavaScript Application Architecture
addyosmani
515
110k
Writing Fast Ruby
sferik
630
62k
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
333
22k
Become a Pro
speakerdeck
PRO
31
5.7k
RailsConf 2023
tenderlove
30
1.3k
Transcript
Google Cloud ML Engine に浸かってみる @yudeayase
真の題名
フルマネージドで 楽したい! @yudeayase
機械学習予測側のお話
予測サーバーの運用を 楽にしようと思いました
何を作っていたのか? - 機械学習を使った広告効果の予測用API - 予測用のパラメーターをインプットとして予測値を返す - なるべくわかりやすいインターフェース - リクエストが数字の羅列とかしんどいよね
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど…
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… 前処理 & 予測値整形
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… 予測を実際に行うAPI
What is ML Engine? モデルの学習からそれを用いた予測サーバーを1サービスで構築可能
What is ML Engine? - モデルの学習からデプロイまで可能 - デプロイしたモデルですぐにオンライン予測可能 - モデルが重い場合がバッチ予測もできる
ん?
What is ML Engine? - モデルの学習からデプロイまで可能 - デプロイしたモデルですぐにオンライン予測可能 - モデルが重い場合がバッチ予測もできる
None
フルマネージドサーバーレス環境
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… こいつの面倒は みないといけない!
前処理という業〜カルマ〜 { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”, “画像”: base64...
... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... } モデルへ
前処理という業〜カルマ〜 モデルへ この変換をFlaskアプリケーションが担う { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”,
“画像”: base64... ... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... }
前処理という業〜カルマ〜 モデルへ この変換をFlaskアプリケーションが担う ほとんどこのために1アプリケーション構築している { “年齢”: 34, “性別”: 男, “媒体”:
“Twitter”, “画像”: base64... ... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... }
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… こいつの世話分、 損してない?
せっかくのマネージドサービスを 使い倒してなくない?
どうすればいいのか?
前処理を含めて「モデル」をつくる 前処理 予測モデル
前処理を含めて「モデル」をつくる 前処理 予測モデル
実際できるの?
カテゴリ値の”翻訳” { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”, ... }
{ “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], ... } 人間の読めるものから、モデルの読めるものへの変換 One-hot or Multi-hot encoding
Feature columns
くわしくは https://www.tensorflow.org/guide/feature_columns
画像の”翻訳” { “画像”: base64... ... } { “画像”: [[255.0, 255.0,
...]] ... } JSONで画像情報の実態を送る場合base64でエンコードを送ることがある デコード & 数値化が必須
モデルのserving input
モデルのserving input 学習済みモデル serving input - 画像のデコード - 画像の数値化 -
正規化 固めてML Engineに乗せられるモデルを出力
All in one model 学習済みモデル 数値input エンコーディングinput 画像input
Our System フルマネージド機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど…
Our System フルマネージド機械学習API 予測モデル on ML Engine Clients サービスのバックエンド or
フロントエンドなど…
世話をするモジュールが減った!
Happy!
本当にハッピーなのか? - モデルにくっつける演算はTensorFlowにベタベタ - ML Engineに依存ベタベタ - AWS SageMakerもある -
GCPに依存しまくってていいのかの判断 - TensorFlow2.0 - 朗報はKerasでもfeature columnsが使える - Serving inputは確実に変更が必要
Thank you !