$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
2019-7-19-data_ml_engineering
Search
yudeayase
July 19, 2019
Programming
0
750
2019-7-19-data_ml_engineering
yudeayase
July 19, 2019
Tweet
Share
Other Decks in Programming
See All in Programming
ハイパーメディア駆動アプリケーションとIslandアーキテクチャ: htmxによるWebアプリケーション開発と動的UIの局所的適用
nowaki28
0
420
Cell-Based Architecture
larchanjo
0
120
認証・認可の基本を学ぼう前編
kouyuume
0
200
tsgolintはいかにしてtypescript-goの非公開APIを呼び出しているのか
syumai
6
2.2k
Flutter On-device AI로 완성하는 오프라인 앱, 박제창 @DevFest INCHEON 2025
itsmedreamwalker
1
110
dotfiles 式年遷宮 令和最新版
masawada
1
770
Socio-Technical Evolution: Growing an Architecture and Its Organization for Fast Flow
cer
PRO
0
340
AIコーディングエージェント(Manus)
kondai24
0
180
宅宅自以為的浪漫:跟 AI 一起為自己辦的研討會寫一個售票系統
eddie
0
500
AIの誤りが許されない業務システムにおいて“信頼されるAI” を目指す / building-trusted-ai-systems
yuya4
6
3.5k
テストやOSS開発に役立つSetup PHP Action
matsuo_atsushi
0
150
從冷知識到漏洞,你不懂的 Web,駭客懂 - Huli @ WebConf Taiwan 2025
aszx87410
2
2.6k
Featured
See All Featured
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Building a Scalable Design System with Sketch
lauravandoore
463
34k
Designing for humans not robots
tammielis
254
26k
The World Runs on Bad Software
bkeepers
PRO
72
12k
BBQ
matthewcrist
89
9.9k
KATA
mclloyd
PRO
32
15k
Building Applications with DynamoDB
mza
96
6.8k
"I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)
danielanewman
231
22k
How STYLIGHT went responsive
nonsquared
100
6k
What's in a price? How to price your products and services
michaelherold
246
13k
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
333
22k
Unsuck your backbone
ammeep
671
58k
Transcript
Google Cloud ML Engine に浸かってみる @yudeayase
真の題名
フルマネージドで 楽したい! @yudeayase
機械学習予測側のお話
予測サーバーの運用を 楽にしようと思いました
何を作っていたのか? - 機械学習を使った広告効果の予測用API - 予測用のパラメーターをインプットとして予測値を返す - なるべくわかりやすいインターフェース - リクエストが数字の羅列とかしんどいよね
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど…
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… 前処理 & 予測値整形
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… 予測を実際に行うAPI
What is ML Engine? モデルの学習からそれを用いた予測サーバーを1サービスで構築可能
What is ML Engine? - モデルの学習からデプロイまで可能 - デプロイしたモデルですぐにオンライン予測可能 - モデルが重い場合がバッチ予測もできる
ん?
What is ML Engine? - モデルの学習からデプロイまで可能 - デプロイしたモデルですぐにオンライン予測可能 - モデルが重い場合がバッチ予測もできる
None
フルマネージドサーバーレス環境
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… こいつの面倒は みないといけない!
前処理という業〜カルマ〜 { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”, “画像”: base64...
... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... } モデルへ
前処理という業〜カルマ〜 モデルへ この変換をFlaskアプリケーションが担う { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”,
“画像”: base64... ... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... }
前処理という業〜カルマ〜 モデルへ この変換をFlaskアプリケーションが担う ほとんどこのために1アプリケーション構築している { “年齢”: 34, “性別”: 男, “媒体”:
“Twitter”, “画像”: base64... ... } { “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], “画像”: [[255.0, 255.0, ...]] ... }
Our System 作っていた機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど… こいつの世話分、 損してない?
せっかくのマネージドサービスを 使い倒してなくない?
どうすればいいのか?
前処理を含めて「モデル」をつくる 前処理 予測モデル
前処理を含めて「モデル」をつくる 前処理 予測モデル
実際できるの?
カテゴリ値の”翻訳” { “年齢”: 34, “性別”: 男, “媒体”: “Twitter”, ... }
{ “年齢”: [0, 0, 1, 0, 0, 0, 0], “性別”: [1, 0], “媒体”: [1, 0 ,0, 0], ... } 人間の読めるものから、モデルの読めるものへの変換 One-hot or Multi-hot encoding
Feature columns
くわしくは https://www.tensorflow.org/guide/feature_columns
画像の”翻訳” { “画像”: base64... ... } { “画像”: [[255.0, 255.0,
...]] ... } JSONで画像情報の実態を送る場合base64でエンコードを送ることがある デコード & 数値化が必須
モデルのserving input
モデルのserving input 学習済みモデル serving input - 画像のデコード - 画像の数値化 -
正規化 固めてML Engineに乗せられるモデルを出力
All in one model 学習済みモデル 数値input エンコーディングinput 画像input
Our System フルマネージド機械学習API Flask on GKE 予測モデル on ML Engine
Clients サービスのバックエンド or フロントエンドなど…
Our System フルマネージド機械学習API 予測モデル on ML Engine Clients サービスのバックエンド or
フロントエンドなど…
世話をするモジュールが減った!
Happy!
本当にハッピーなのか? - モデルにくっつける演算はTensorFlowにベタベタ - ML Engineに依存ベタベタ - AWS SageMakerもある -
GCPに依存しまくってていいのかの判断 - TensorFlow2.0 - 朗報はKerasでもfeature columnsが使える - Serving inputは確実に変更が必要
Thank you !