Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
© 2019 catabira Inc. catabira.com における Amazon EKS 活用事例 Kubernetes による継続的デリバリ編 株式会社catabira 池内 孝啓 / Takahiro Ikeuchi 1
Slide 2
Slide 2 text
自己紹介 2
Slide 3
Slide 3 text
池内 孝啓 / Takahiro Ikeuchi ● 株式会社catabira 代表取締役 CEO ○ 株式会社SQUEEZE 技術顧問 3 ITベンチャー数社を経て2011年に 株式会社ALBERT へ入社。ECサイト向け 商品推薦システムの開発やデータ活用クラウドプラットフォーム事業の立ち上げ などに従事。執行役員として2015年に東証マザーズ上場を経験後、独立起業。
Slide 4
Slide 4 text
ソフトウェア・エンジニアとして Python や Go、React などによる アプリケーション開発のほか、 ブロックチェーンやビッグデータ領域、Webデザインなどを広く手がける 4
Slide 5
Slide 5 text
follow me! 5 @iktakahiro @iktakahiro
Slide 6
Slide 6 text
Agenda 6
Slide 7
Slide 7 text
Agenda(40分) 1. 自己紹介(2分) 2. 会社・プロダクト紹介(3分) 3. 技術スタック & AWS システム構成紹介(5分) 4. Kubernetes と 継続的デリバリ(20分) 5. EKS / k8s Tips(5分) 6. 質疑応答(5分) 7
Slide 8
Slide 8 text
今日伝えたい 3つのこと ● Kubernetes は楽しいのでぜひトライを! ● Kubernetes でもこれまでの CI, CD の考え方は変わらない(と思う) ● EKS はプロダクション環境に導入して問題なし 8
Slide 9
Slide 9 text
今日話さないこと ● Amazon EKS 以外の Kubernetes マネージドサービスとの比較 ● Kubernetes 自体の解説 9
Slide 10
Slide 10 text
会社紹介 10
Slide 11
Slide 11 text
株式会社catabira / catabira Inc. ● 設立 : 2015年8月4日 ● 代表取締役 : 池内 孝啓 ● 本社 : 東京都新宿区新宿7丁目26-7 ビクセル新宿1F 11 創業時よりスタートアップ企業やエンジニアのための B2B SaaS を開発・運営。 2018年よりブロックチェーン領域へ進出。 2019年1月、ブロックチェーン特化型データアナリティクス・プラットフォーム catabira.com をローンチ。
Slide 12
Slide 12 text
社名の由来とロゴについて 社名である catabira (カタビラ) の由来は鎖帷子(くさりかたびら)。 ブロックチェーンの鎖を想起させるとともに、人々の結びつきが織りなす ネットワークを表します。帷子は日本の伝統的な衣服でもあります。 12 ロゴは、人とテクノロジーの未来を示す "羅針盤" という企業理念を反映し、 航海に用いるコンパスをモチーフとしてデザインされました。 明るい未来への期待と調和への願いが込められています。
Slide 13
Slide 13 text
役員紹介 13 代表取締役 CEO 池内 孝啓 取締役 CTO 中村 智浩 取締役 花村 直親
Slide 14
Slide 14 text
プロダクト紹介 14
Slide 15
Slide 15 text
ブロックチェーン特化型 データアナリティクス・プラットフォーム 15
Slide 16
Slide 16 text
catabira.com とは ブロックチェーン・サービスのためのデータアナリティクス・プラットフォーム 第一弾としてモニタリング機能を SaaS として提供 16
Slide 17
Slide 17 text
ブロックチェーン・データを可視化 暗号通貨のトランザクション量や残高情報など重要なメトリクスを 時系列チャートとして可視化。日々の変動や傾向が一目瞭然に。 17
Slide 18
Slide 18 text
18 ● 対象メトリクスや集計方法・期間を 柔軟に指定可能 ● 意図しない取引や残高の減少を検知 ● チャットサービスへの通知や Webhook によるシステム連携に対応 異常検知を リアルタイムに通知
Slide 19
Slide 19 text
技術スタック 19
Slide 20
Slide 20 text
おもな採用言語・サービスなど ● Go, TypeScript, YAML ● React, MobX ● AWS Lambda, Amazon Aurora ● Amazon EKS, Kubernetes ● Elasticsearch ● Netlify ● New Relic ● CircleCI ● Google BigQuery 20
Slide 21
Slide 21 text
おもな採用言語・サービスなど ● Go, TypeScript, YAML ● React, MobX ● AWS Lambda, Amazon Aurora ● Amazon EKS, Kubernetes ● Elasticsearch ● Netlify ● New Relic ● CircleCI ● Google BigQuery このへんが 本日のメイントピック つらい 21
Slide 22
Slide 22 text
AWS 構成概略図 22 ● EKS ● ALB(Ingress) ● EC2 Node Group x 3 ● EBS(PV) ● Aurora PostgreSQL ● SQS, Lambda ● CloudFront
Slide 23
Slide 23 text
ブロックチェーンと Kubernetes 23
Slide 24
Slide 24 text
ブロックチェーン事業者 特有の悩み: ノードの運用どうしよう問題 ● https://github.com/paritytech/parity-ethereum ● Parity = Ethereum クライアントの1つ ● Rust + RocksDB ● 同期に時間がかかる(3Hours, nDays 〜) ● ディスク容量を食う(100GB 〜, 1TB 〜) ● まれにデータが壊れる 要するに RDB や NoSQL を EC2 + EBS で運用するようなものなので 色々つらい 24 EC2 Parity プロセス EBS ブロックチェーンデー タ
Slide 25
Slide 25 text
WorkAround 1 : Persistent Volumes 25
Slide 26
Slide 26 text
PersistentVolume の設定例 apiVersion: v1 kind: PersistentVolume metadata: name: parity-pv annotations: pv.beta.kubernetes.io/gid: "1000" spec: capacity: storage: 300Gi accessModes: - ReadWriteOnce storageClassName: parity-sg persistentVolumeReclaimPolicy: Retain awsElasticBlockStore: volumeID: your-volume-id fsType: ext4 26
Slide 27
Slide 27 text
PersistentVolumeClaim の設定例 apiVersion: v1 kind: PersistentVolumeClaim metadata: name: parity-pvc spec: accessModes: - ReadWriteOnce resources: requests: storage: 300Gi storageClassName: parity-sg 27
Slide 28
Slide 28 text
Deployment の設定例(抜粋) apiVersion: apps/v1 kind: Deployment # ... volumeMounts: - name: parity-volume mountPath: "/parity-data" # ... volumes: - name: parity-volume persistentVolumeClaim: claimName: parity-pvc 28
Slide 29
Slide 29 text
PersistentVolume で得られるもの ● Root Volume と異なり不揮発なボリュームを得られる(EBS なので) ● Amazon Data Lifecycle Manager でバックアップ管理が可能(EBS なので) PersistentVolume で失うもの ● Availability Zone をまたげない(EBS なので!) 29
Slide 30
Slide 30 text
WorkAround 2 : Stateful Sets 30
Slide 31
Slide 31 text
31 Load Balancer 配下に Stateful Sets を並べる作戦 ● 参考 : https://github.com/carlolm/kube-parity ● スケールはするが運用の負が解消するわけではない Stateful Sets
Slide 32
Slide 32 text
わたしたちは Amazon Managed Blockchain を 応援しています ლ(╹◡╹ლ) 32
Slide 33
Slide 33 text
Kubernetes と 継続的デリバリ 33
Slide 34
Slide 34 text
継続的デリバリとは(おさらい) ● ソフトウェアを継続的に出荷できること ● デプロイ・フィードバック・改善のイテレーションを高速に回すこと 34
Slide 35
Slide 35 text
Kubernetes と継続的デリバリ ● 基本的な考え方はこれまでと同じ ● マニフェストファイルをどう管理・運用していくかが鍵 35
Slide 36
Slide 36 text
CircleCI config.yml 設定例(抜粋) version: 2.1 orbs: aws-eks: tiendanube/
[email protected]
# ... jobs: deployment: docker: - image: 'circleci/openjdk:8-jdk' steps: - aws-eks/deploy: cluster_name: my-eks-cluster-name region: us-east-1 steps: - checkout - run: kubectl apply -f deployment.yml 36
Slide 37
Slide 37 text
CircleCI によるマニフェスト適用・更新の課題 ● 環境によって ConfigMap の内容を変えたい ● 環境によって一部パラメータ(ReplicaSet の数とか)を変えたい ● ConfigMap だけを変更した場合でも Deployment に反映したい 37
Slide 38
Slide 38 text
CircleCI によるマニフェスト適用・更新の課題 ● 環境によって ConfigMap の内容を変えたい ● 環境によって一部パラメータ(ReplicaSet の数とか)を変えたい ● ConfigMap だけを変更した場合でも Deployment に反映したい それ全部 kustomize でできるよ! 38
Slide 39
Slide 39 text
kustomize とは ● https://github.com/kubernetes-sigs/kustomize ● k8s の YAML ファイル群をよしなに管理できるコマンドラインツール ● ざっくりイメージ : 複数の YAML ファイルを部分更新して結合してくれる 39
Slide 40
Slide 40 text
kustomize 利用時のディレクトリ構成例 ├── base │ ├── alb-deployment.yml │ ├── api-deployment.yml │ └── kustomization.yml ├── prod │ ├── alb-deployment-patch.yml │ ├── api-deployment-patch.yml │ └── kustomization.yml └── stage ├── alb-deployment-patch.yml ├── api-deployment-patch.yml └── kustomization.yml 40
Slide 41
Slide 41 text
base/kustomization.yml 設定例 resources: - api-deployment.yml - alb-deployment.yml ● 複数ファイルを連結 41
Slide 42
Slide 42 text
stage/kustomization.yml 設定例 bases: - ./../base configMapGenerator: - name: catabira-api-configmap literals: - ENV="stage" - AWS_DEFAULT_REGION="us-east-1" # ... patches: - alb-deployment-patch.yml - api-deployment-patch.yml ● base/kustomization.yml を参照 ● 環境ごとの Environment 指定(stage 用) 42
Slide 43
Slide 43 text
prod/kustomization.yml 設定例 bases: - ./../base configMapGenerator: - name: catabira-api-configmap literals: - ENV="prod" - AWS_DEFAULT_REGION="us-east-1" # ... patches: - alb-deployment-patch.yml - api-deployment-patch.yml ● base/kustomization.yml を参照 ● 環境ごとの Environment 指定(prod 用) 43
Slide 44
Slide 44 text
stage/api-deployment-path.yml 設定例 apiVersion: apps/v1 kind: Deployment metadata: name: catabira-api spec: replicas: 1 ● base/api-deployment.yml の設定に追記・上書き更新したい項目を記述 44
Slide 45
Slide 45 text
prod/api-deployment-path.yml 設定例 spec: replicas: 2 strategy: rollingUpdate: maxSurge: 3 maxUnavailable: 1 type: RollingUpdate ● プロダクション環境は 複数レプリカ、ローリングアップデートを指定 45
Slide 46
Slide 46 text
マニフェストファイル群の生成と適用 kustomize build ./stage | kubectl apply -f - 46 ● ここまで準備できればあとは CircleCI の準備をするだけ!
Slide 47
Slide 47 text
CircleCI + kustomize 47
Slide 48
Slide 48 text
デプロイメント戦略 ● develop ブランチへのマージ -> ステージング環境にデプロイ ● master ブランチへのマージ -> プロダクション環境にデプロイ ● git-flow に基づくブランチ運用(従来と同じ) 48
Slide 49
Slide 49 text
デプロイメント・プロセス 1. ブランチへのマージをフックにビルド開始 2. ユニットテストを実行 3. Docker イメージを生成 4. Amazon ECR に Docker イメージをプッシュ 5. kustomize でマニフェストファイルを生成 6. kubectl でマニフェストファイルを apply 49
Slide 50
Slide 50 text
CircleCI config.yml version: 2.1 orbs: aws-ecr: circleci/
[email protected]
# ... jobs: # ... deployment: docker: - image: 'circleci/openjdk:8-jdk' parameters: tag: type: string env: type: enum enum: ['stage', 'prod'] 50
Slide 51
Slide 51 text
CircleCI config.yml - 続き steps: - aws-eks/deploy: cluster_name: your-eks-<< parameters.env >>-cluster-name region: us-east-1 steps: - checkout # ... - run: ./kustomize build ./<< parameters.env >> | kubectl apply -f - ● パラメータ env の値 でどのディレクトリを対象にして build するかを 切り分け 51
Slide 52
Slide 52 text
質疑応答 52
Slide 53
Slide 53 text
今日話したおもなこと ● catabira の EKS 構成例 ● ブロックチェーン領域特有の課題感について ● kustomize でマニフェストファイルを良い感じに管理する方法 ● ECR, EKS への操作をデプロイメント・プロセスに載せる方法 53
Slide 54
Slide 54 text
EKS & k8s Tips 54
Slide 55
Slide 55 text
eksctl を使う ● https://eksctl.io/ ● EKS やノードグループの構築をよしなにやってくれるコマンドラインツール ● よしなにやってくれるあまり一部 暗黙的な設定変更をする点には注意 ● 他の選択肢 : Terraform, kops 55 公式ドキュメント : Amazon EKS の使用開始 はおすすめしません (挫折しちゃいそうなので)
Slide 56
Slide 56 text
New Relic を使う ● パフォーマンスモニタリグ SaaS ● k8s のモニタリングに対応したマニフェストあり ● コンテナが期待数立ちあがっているかの監視も行える ● 他の選択肢 : Datadog, Mackerel 56
Slide 57
Slide 57 text
57 CloudWatch Logs でコンテナログを保全する ● コンテナが異常終了して削除されたときログもロストするようだと 調査ができない問題 ● https://kubernetes.io/docs/concepts/cluster-administration/logging/ ● 取り急ぎとして CloudWatch Logs への保全をおすすめ ○ Fluentd を DaemonSet として稼働させるのが楽 ● 他の選択肢 : Datadog Log Management, Stackdriver, Elasticsearch
Slide 58
Slide 58 text
AWS ALB Ingress Controller for Kubernete を使う ● https://github.com/kubernetes-sigs/aws-alb-ingress-controller ● マニフェストファイルとして ALB を定義・構築可能 58 metadata: name: catabira-api-ingress annotations: kubernetes.io/ingress.class: alb alb.ingress.kubernetes.io/scheme: internet-facing alb.ingress.kubernetes.io/backend-protocol: HTTP ● 独立して管理したほうがよいという説も(要出典
Slide 59
Slide 59 text
Virginia Region を使う ● GA が 2018.06.05 、そこから 6ヶ月後の 2018.12.05 に Tokyo でローンチ ● catabira は 2018.08 時点から検証を開始したので知見が貯められた ● みんなが好きな Web サービスの多くは Tokyo リージョンにないし Tokyo リージョンを使う意味はないのではないか説 59 ※ レイテンシにシビアであったり法務的に国内リージョンに置いたほうがよい 判断がなされた場合を除く
Slide 60
Slide 60 text
60 Worker は Private Subnet に配置し SSM を使う ● Worker ノードは Master ノードと疎通できればいいので Public に置く意味は基本ないです(一応 用途による) ● Private エリアへの SSH 接続用に踏み台サーバーを用意するのは辛いので Session Manager を使おう ○ IAM と紐付くので、鍵を共有してしまう運用あるあるよりはセキュア