Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
GoogleKubernetesEngine is very easy
Search
khdd-mks
May 29, 2019
Technology
0
210
GoogleKubernetesEngine is very easy
GoogleKubernetesEngine is very easy to try k8s
khdd-mks
May 29, 2019
Tweet
Share
More Decks by khdd-mks
See All by khdd-mks
AWS Amplify / AppSync
khddmks
1
350
AWS Amplify HandsOn
khddmks
1
320
Riot.jsでSPAを作る
khddmks
0
910
Other Decks in Technology
See All in Technology
オープンソースでどこまでできる?フォーマル検証チャレンジ
msyksphinz
0
140
アイテムレビュー機能導入からの学びと改善
zozotech
PRO
0
170
サイバーエージェント流クラウドコスト削減施策「みんなで金塊堀太郎」
kurochan
3
1.9k
Introduction to Bill One Development Engineer
sansan33
PRO
0
300
20251014_Pythonを実務で徹底的に使いこなした話
ippei0923
0
200
"プロポーザルってなんか怖そう"という境界を超えてみた@TSUDOI by giftee Tech #1
shilo113
0
200
能登半島地震で見えた災害対応の課題と組織変革の重要性
ditccsugii
0
960
技育祭2025【秋】 企業ピッチ/登壇資料(高橋 悟生)
hacobu
PRO
0
110
Contract One Engineering Unit 紹介資料
sansan33
PRO
0
8.8k
新規事業におけるGORM+SQLx併用アーキテクチャ
hacomono
PRO
0
290
セキュアな認可付きリモートMCPサーバーをAWSマネージドサービスでつくろう! / Let's build an OAuth protected remote MCP server based on AWS managed services
kaminashi
3
330
そのWAFのブロック、どう活かす? サービスを守るための実践的多層防御と思考法 / WAF blocks defense decision
kaminashi
0
200
Featured
See All Featured
Intergalactic Javascript Robots from Outer Space
tanoku
273
27k
The Myth of the Modular Monolith - Day 2 Keynote - Rails World 2024
eileencodes
26
3.1k
XXLCSS - How to scale CSS and keep your sanity
sugarenia
248
1.3M
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
37
2.6k
Producing Creativity
orderedlist
PRO
347
40k
Fantastic passwords and where to find them - at NoRuKo
philnash
52
3.4k
Unsuck your backbone
ammeep
671
58k
The Success of Rails: Ensuring Growth for the Next 100 Years
eileencodes
46
7.7k
Visualization
eitanlees
149
16k
A Modern Web Designer's Workflow
chriscoyier
697
190k
[RailsConf 2023 Opening Keynote] The Magic of Rails
eileencodes
31
9.7k
Building a Scalable Design System with Sketch
lauravandoore
463
33k
Transcript
Google Kubernetes Engine でお手軽k8s生活 2019/05/29 fun-tech #10 @khdd-mks
自己紹介 ・北島久資 (@khdd-mks) ・オープンストリーム所属 アーキテクト ・ fun-tech 運営 ・ Kubernetes
歴 1 年程度 Kubernetes 業務歴 0 日
Google Kubernetes Engine ( 以下 GKE)
の前に
Google Cloud Platform ( 以下 GCP)
None
GCP ・ Google が提供しているクラウドサービス ・ Google という巨大サービスと同等の技術・インフラを用いているため 高可用性・高信頼性等が期待できる ・他のクラウドサービスにもあるような様々なサービスが存在するが、 特に自社のノウハウを生かしたビッグデータ分析基盤
(BigQuery) 等が特徴
GCPの簡易歴史 2008 GAE (Google App Engine) サービス開始 2010 〜 2012
いくつかの IaaS, SaaS 等がサービス開始 2013 運営中のサービスを統一し、名称を GCP に変更 2014 Google が Kubernetes を発表し、そのマネージドサービスである Google Container Engine もサービス開始 2016 東京リージョン開設 2017 Google Container Engine の名称を Google Kubernetes Engine に変更
あらためて本題の GKE
None
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能 最大のお手軽ポイント
とりあえずクラスタを作成してみる
None
しばらく待つとクラスタ作成完了
作成したクラスタを使ってみる
# kubectl 用の認証情報を保存 $ gcloud container clusters get-credentials [CLUSTER_NAME] #
後は普通に kubectl で操作可能 $ kubectl get nodes NAME STATUS ROLES AGE VERSION gke-[cluster-name]-default-pool-0123456-abcdef Ready <none> 8m3s v1.12.7-gke.10 gke-[cluster-name]-default-pool-1234567-abcdef Ready <none> 8m v1.12.7-gke.10 gke-[cluster-name]-default-pool-2345678-abcdef Ready <none> 8m4s v1.12.7-gke.10 gke-[cluster-name]-default-pool-3456789-abcdef Ready <none> 8m1s v1.12.7-gke.10 gke-[cluster-name]-default-pool-4567890-abcdef Ready <none> 8m5s v1.12.7-gke.10 gke-[cluster-name]-default-pool-5678901-abcdef Ready <none> 8m7s v1.12.7-gke.10 ※ GKE の場合、マスターノードの情報が kubectl get nodes の結果に含まれていない
自力でクラスタ構築するのに比べて どのくらいお手軽なの?
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーノードで kubeadm join 9. Pod ネットワークのインストール
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーで kubeadm join 9. Pod ネットワークのインストール に加えて 全サーバーの死活監視を個別に実施し ダウン時等の自動復旧の仕組みを構築する必要がある
GKE はこれを 自動でやってくれている ので 非常にお手軽
その他自力構築との違い type: LoadBalancer の Service
type: LoadBalancer の Service type: LoadBalancer の Service を作成しても、通常の Kubernetes
では何も起きない。 GKE クラスタ上で作成した場合は、自動的に GCLB(Google Cloud Load Balancing) が作成され、紐付けが行われる。
時間があればデモ
まとめ ・ GKE は構築も運用監視も全部よしなにやってくれるので非常にお手軽 ・操作方法も通常の k8s とほぼ同じなのでお手軽 ・とりあえず k8s やるときにオススメ
ご清聴ありがとうございました