Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
GoogleKubernetesEngine is very easy
Search
khdd-mks
May 29, 2019
Technology
0
190
GoogleKubernetesEngine is very easy
GoogleKubernetesEngine is very easy to try k8s
khdd-mks
May 29, 2019
Tweet
Share
More Decks by khdd-mks
See All by khdd-mks
AWS Amplify / AppSync
khddmks
1
330
AWS Amplify HandsOn
khddmks
1
290
Riot.jsでSPAを作る
khddmks
0
820
Other Decks in Technology
See All in Technology
SCSAから学ぶセキュリティ管理
masakamayama
0
140
Fintech SREの挑戦 PCI DSS対応をスマートにこなすインフラ戦略/Fintech SRE’s Challenge: Smart Infrastructure Strategies for PCI DSS Compliance
maaaato
0
450
Postmanを使いこなす!2025年ぜひとも押さえておきたいPostmanの10の機能
nagix
2
120
20250208_OpenAIDeepResearchがやばいという話
doradora09
PRO
0
170
FastConnect の冗長性
ocise
1
9.6k
SA Night #2 FinatextのSA思想/SA Night #2 Finatext session
satoshiimai
1
100
君も受託系GISエンジニアにならないか
sudataka
2
370
スクラムのイテレーションを導入してチームの雰囲気がより良くなった話
eccyun
0
110
生成AIの利活用を加速させるための取り組み「prAIrie-dog」/ Shibuya_AI_1
visional_engineering_and_design
1
140
AndroidデバイスにFTPサーバを建立する
e10dokup
0
240
PL900試験から学ぶ Power Platform 基礎知識講座
kumikeyy
0
110
技術的負債解消の取り組みと専門チームのお話 #技術的負債_Findy
bengo4com
1
1.2k
Featured
See All Featured
BBQ
matthewcrist
86
9.5k
Visualization
eitanlees
146
15k
The Invisible Side of Design
smashingmag
299
50k
How to train your dragon (web standard)
notwaldorf
90
5.8k
ReactJS: Keep Simple. Everything can be a component!
pedronauck
666
120k
Imperfection Machines: The Place of Print at Facebook
scottboms
267
13k
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
33
2.1k
Learning to Love Humans: Emotional Interface Design
aarron
273
40k
Optimising Largest Contentful Paint
csswizardry
34
3.1k
Exploring the Power of Turbo Streams & Action Cable | RailsConf2023
kevinliebholz
29
4.6k
The Pragmatic Product Professional
lauravandoore
32
6.4k
Fontdeck: Realign not Redesign
paulrobertlloyd
82
5.4k
Transcript
Google Kubernetes Engine でお手軽k8s生活 2019/05/29 fun-tech #10 @khdd-mks
自己紹介 ・北島久資 (@khdd-mks) ・オープンストリーム所属 アーキテクト ・ fun-tech 運営 ・ Kubernetes
歴 1 年程度 Kubernetes 業務歴 0 日
Google Kubernetes Engine ( 以下 GKE)
の前に
Google Cloud Platform ( 以下 GCP)
None
GCP ・ Google が提供しているクラウドサービス ・ Google という巨大サービスと同等の技術・インフラを用いているため 高可用性・高信頼性等が期待できる ・他のクラウドサービスにもあるような様々なサービスが存在するが、 特に自社のノウハウを生かしたビッグデータ分析基盤
(BigQuery) 等が特徴
GCPの簡易歴史 2008 GAE (Google App Engine) サービス開始 2010 〜 2012
いくつかの IaaS, SaaS 等がサービス開始 2013 運営中のサービスを統一し、名称を GCP に変更 2014 Google が Kubernetes を発表し、そのマネージドサービスである Google Container Engine もサービス開始 2016 東京リージョン開設 2017 Google Container Engine の名称を Google Kubernetes Engine に変更
あらためて本題の GKE
None
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能 最大のお手軽ポイント
とりあえずクラスタを作成してみる
None
しばらく待つとクラスタ作成完了
作成したクラスタを使ってみる
# kubectl 用の認証情報を保存 $ gcloud container clusters get-credentials [CLUSTER_NAME] #
後は普通に kubectl で操作可能 $ kubectl get nodes NAME STATUS ROLES AGE VERSION gke-[cluster-name]-default-pool-0123456-abcdef Ready <none> 8m3s v1.12.7-gke.10 gke-[cluster-name]-default-pool-1234567-abcdef Ready <none> 8m v1.12.7-gke.10 gke-[cluster-name]-default-pool-2345678-abcdef Ready <none> 8m4s v1.12.7-gke.10 gke-[cluster-name]-default-pool-3456789-abcdef Ready <none> 8m1s v1.12.7-gke.10 gke-[cluster-name]-default-pool-4567890-abcdef Ready <none> 8m5s v1.12.7-gke.10 gke-[cluster-name]-default-pool-5678901-abcdef Ready <none> 8m7s v1.12.7-gke.10 ※ GKE の場合、マスターノードの情報が kubectl get nodes の結果に含まれていない
自力でクラスタ構築するのに比べて どのくらいお手軽なの?
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーノードで kubeadm join 9. Pod ネットワークのインストール
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーで kubeadm join 9. Pod ネットワークのインストール に加えて 全サーバーの死活監視を個別に実施し ダウン時等の自動復旧の仕組みを構築する必要がある
GKE はこれを 自動でやってくれている ので 非常にお手軽
その他自力構築との違い type: LoadBalancer の Service
type: LoadBalancer の Service type: LoadBalancer の Service を作成しても、通常の Kubernetes
では何も起きない。 GKE クラスタ上で作成した場合は、自動的に GCLB(Google Cloud Load Balancing) が作成され、紐付けが行われる。
時間があればデモ
まとめ ・ GKE は構築も運用監視も全部よしなにやってくれるので非常にお手軽 ・操作方法も通常の k8s とほぼ同じなのでお手軽 ・とりあえず k8s やるときにオススメ
ご清聴ありがとうございました