Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
GoogleKubernetesEngine is very easy
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
khdd-mks
May 29, 2019
Technology
0
210
GoogleKubernetesEngine is very easy
GoogleKubernetesEngine is very easy to try k8s
khdd-mks
May 29, 2019
Tweet
Share
More Decks by khdd-mks
See All by khdd-mks
AWS Amplify / AppSync
khddmks
1
360
AWS Amplify HandsOn
khddmks
1
320
Riot.jsでSPAを作る
khddmks
0
950
Other Decks in Technology
See All in Technology
ZOZOにおけるAI活用の現在 ~開発組織全体での取り組みと試行錯誤~
zozotech
PRO
5
5.5k
データの整合性を保ちたいだけなんだ
shoheimitani
8
3.1k
2026年、サーバーレスの現在地 -「制約と戦う技術」から「当たり前の実行基盤」へ- /serverless2026
slsops
2
240
Codex 5.3 と Opus 4.6 にコーポレートサイトを作らせてみた / Codex 5.3 vs Opus 4.6
ama_ch
0
150
Claude_CodeでSEOを最適化する_AI_Ops_Community_Vol.2__マーケティングx_AIはここまで進化した.pdf
riku_423
2
570
仕様書駆動AI開発の実践: Issue→Skill→PRテンプレで 再現性を作る
knishioka
2
660
Red Hat OpenStack Services on OpenShift
tamemiya
0
110
30万人の同時アクセスに耐えたい!新サービスの盤石なリリースを支える負荷試験 / SRE Kaigi 2026
genda
4
1.3k
配列に見る bash と zsh の違い
kazzpapa3
1
150
Greatest Disaster Hits in Web Performance
guaca
0
250
Sansan Engineering Unit 紹介資料
sansan33
PRO
1
3.8k
AI駆動PjMの理想像 と現在地 -実践例を添えて-
masahiro_okamura
1
110
Featured
See All Featured
The AI Revolution Will Not Be Monopolized: How open-source beats economies of scale, even for LLMs
inesmontani
PRO
3
3k
Six Lessons from altMBA
skipperchong
29
4.1k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
57
50k
Are puppies a ranking factor?
jonoalderson
1
2.7k
How To Speak Unicorn (iThemes Webinar)
marktimemedia
1
380
Raft: Consensus for Rubyists
vanstee
141
7.3k
The Invisible Side of Design
smashingmag
302
51k
SEO Brein meetup: CTRL+C is not how to scale international SEO
lindahogenes
0
2.3k
[SF Ruby Conf 2025] Rails X
palkan
1
750
Speed Design
sergeychernyshev
33
1.5k
[RailsConf 2023] Rails as a piece of cake
palkan
59
6.3k
JAMstack: Web Apps at Ludicrous Speed - All Things Open 2022
reverentgeek
1
340
Transcript
Google Kubernetes Engine でお手軽k8s生活 2019/05/29 fun-tech #10 @khdd-mks
自己紹介 ・北島久資 (@khdd-mks) ・オープンストリーム所属 アーキテクト ・ fun-tech 運営 ・ Kubernetes
歴 1 年程度 Kubernetes 業務歴 0 日
Google Kubernetes Engine ( 以下 GKE)
の前に
Google Cloud Platform ( 以下 GCP)
None
GCP ・ Google が提供しているクラウドサービス ・ Google という巨大サービスと同等の技術・インフラを用いているため 高可用性・高信頼性等が期待できる ・他のクラウドサービスにもあるような様々なサービスが存在するが、 特に自社のノウハウを生かしたビッグデータ分析基盤
(BigQuery) 等が特徴
GCPの簡易歴史 2008 GAE (Google App Engine) サービス開始 2010 〜 2012
いくつかの IaaS, SaaS 等がサービス開始 2013 運営中のサービスを統一し、名称を GCP に変更 2014 Google が Kubernetes を発表し、そのマネージドサービスである Google Container Engine もサービス開始 2016 東京リージョン開設 2017 Google Container Engine の名称を Google Kubernetes Engine に変更
あらためて本題の GKE
None
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能
GKE ・ GCP 上で提供される Kubernetes のマネージドサービス ・マスター・ワーカーノード共に管理してくれる ( しかもマスターは課金されない! )
・通常の Kubernetes とほぼ同じように (kubectl で ) 操作可能 最大のお手軽ポイント
とりあえずクラスタを作成してみる
None
しばらく待つとクラスタ作成完了
作成したクラスタを使ってみる
# kubectl 用の認証情報を保存 $ gcloud container clusters get-credentials [CLUSTER_NAME] #
後は普通に kubectl で操作可能 $ kubectl get nodes NAME STATUS ROLES AGE VERSION gke-[cluster-name]-default-pool-0123456-abcdef Ready <none> 8m3s v1.12.7-gke.10 gke-[cluster-name]-default-pool-1234567-abcdef Ready <none> 8m v1.12.7-gke.10 gke-[cluster-name]-default-pool-2345678-abcdef Ready <none> 8m4s v1.12.7-gke.10 gke-[cluster-name]-default-pool-3456789-abcdef Ready <none> 8m1s v1.12.7-gke.10 gke-[cluster-name]-default-pool-4567890-abcdef Ready <none> 8m5s v1.12.7-gke.10 gke-[cluster-name]-default-pool-5678901-abcdef Ready <none> 8m7s v1.12.7-gke.10 ※ GKE の場合、マスターノードの情報が kubectl get nodes の結果に含まれていない
自力でクラスタ構築するのに比べて どのくらいお手軽なの?
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーノードで kubeadm join 9. Pod ネットワークのインストール
自力で構築する場合 1. Docker のインストール 2. kubeadm, kubelet, kubectl のインストール 3.
cgroup ドライバの設定 4. マスター用のロードバランサーを用意 5. マスターの 1 台で kubeadm init 6. マスターの残りに、 5. で作成された認証情報をコピー 7. マスターの残りで、 kubeadm join --experimental-control-plane ↑ここまででようやくマスターの構築完了 8. ワーカーで kubeadm join 9. Pod ネットワークのインストール に加えて 全サーバーの死活監視を個別に実施し ダウン時等の自動復旧の仕組みを構築する必要がある
GKE はこれを 自動でやってくれている ので 非常にお手軽
その他自力構築との違い type: LoadBalancer の Service
type: LoadBalancer の Service type: LoadBalancer の Service を作成しても、通常の Kubernetes
では何も起きない。 GKE クラスタ上で作成した場合は、自動的に GCLB(Google Cloud Load Balancing) が作成され、紐付けが行われる。
時間があればデモ
まとめ ・ GKE は構築も運用監視も全部よしなにやってくれるので非常にお手軽 ・操作方法も通常の k8s とほぼ同じなのでお手軽 ・とりあえず k8s やるときにオススメ
ご清聴ありがとうございました