Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
VMとAWS ECSがメインのインフラにKubernetesを導入した効能
Search
Dorian
June 13, 2020
Technology
1
3.4k
VMとAWS ECSがメインのインフラにKubernetesを導入した効能
Dorian
June 13, 2020
Tweet
Share
More Decks by Dorian
See All by Dorian
オープンSNSフレームワークについて
doridoridoriand
0
1.1k
UUIDは衝突の夢を見るか
doridoridoriand
1
1.2k
Other Decks in Technology
See All in Technology
障害対応指揮の意思決定と情報共有における価値観 / Waroom Meetup #2
arthur1
5
470
初心者向けAWS Securityの勉強会mini Security-JAWSを9ヶ月ぐらい実施してきての近況
cmusudakeisuke
0
120
【令和最新版】AWS Direct Connectと愉快なGWたちのおさらい
minorun365
PRO
5
750
AWS Lambda のトラブルシュートをしていて思うこと
kazzpapa3
2
170
AWS Lambdaと歩んだ“サーバーレス”と今後 #lambda_10years
yoshidashingo
1
170
【Startup CTO of the Year 2024 / Audience Award】アセンド取締役CTO 丹羽健
niwatakeru
0
960
100 名超が参加した日経グループ横断の競技型 AWS 学習イベント「Nikkei Group AWS GameDay」の紹介/mediajaws202411
nikkei_engineer_recruiting
1
170
リンクアンドモチベーション ソフトウェアエンジニア向け紹介資料 / Introduction to Link and Motivation for Software Engineers
lmi
4
300k
Lambda10周年!Lambdaは何をもたらしたか
smt7174
2
110
社内で最大の技術的負債のリファクタリングに取り組んだお話し
kidooonn
1
550
誰も全体を知らない ~ ロールの垣根を超えて引き上げる開発生産性 / Boosting Development Productivity Across Roles
kakehashi
1
220
ハイパーパラメータチューニングって何をしているの
toridori_dev
0
140
Featured
See All Featured
Fantastic passwords and where to find them - at NoRuKo
philnash
50
2.9k
The Cost Of JavaScript in 2023
addyosmani
45
6.7k
Navigating Team Friction
lara
183
14k
Scaling GitHub
holman
458
140k
Mobile First: as difficult as doing things right
swwweet
222
8.9k
Producing Creativity
orderedlist
PRO
341
39k
I Don’t Have Time: Getting Over the Fear to Launch Your Podcast
jcasabona
28
2k
5 minutes of I Can Smell Your CMS
philhawksworth
202
19k
Building a Modern Day E-commerce SEO Strategy
aleyda
38
6.9k
[Rails World 2023 - Day 1 Closing Keynote] - The Magic of Rails
eileencodes
33
1.9k
Why You Should Never Use an ORM
jnunemaker
PRO
54
9.1k
Rails Girls Zürich Keynote
gr2m
94
13k
Transcript
VMとAWS ECSがメインのインフラにKubernetesを 導⼊した効能 ⽯⽥尭⼤
⽯⽥ 尭⼤ CyberZ, inc. 出向中 メッセンジャーアプリのAPIおよび トーナメントサイトの開発に携わったあと、 OPENREC 事業部にてSREおよび CyberZ関連⼦会社のインフラエンジニアとして従事
1.OPENREC.tvの紹介 2.コンテナ及びサーバーレス技術の導⼊状況 3.Kubernetesを導⼊するモチベーション 4.既存との並⾏運⽤⽅法について 5.稼働しているサービスの紹介 6.直⾯した問題 7.今後の展望 8.まとめ
今回の発表の想定読者 • Kubernetesを業務で導⼊してみたいが踏ん切りがつかない⽅ • Kubernetesを使うからには特別なことをしないといけないと思ってる⽅ • Kubernetesを導⼊したいがどこからどこまで ⼿を付ければいいか分からない⽅ • 古いインフラの移⾏先にKubernetesを選択したいと思ってる⽅
OPENREC.tvについて
国内最⼤規模のゲームコンテンツをメインとした動画配信PF 汎⽤性の⾼い専⽤スタジオを 完備 都内某所トータル1000平⽶以 上 内製オリジナルコンテン ツや eスポーツ⼤会を多数配 信 国内最⼤規模のゲーム特化
配信プラットフォーム 次世代e-sportsイベント “RAGE” ゲームに特化 配信端末 コンテンツ スタジオ
配信者や企業タイアップのスタンプ 約500種類〜以上
様々な番組も配信中
コンテナ及びサーバーレス の導⼊状況
コンテナ及びサーバーレスの導⼊状況 • Java 8 • Python 3.x • Node 12.x
• Go 1.x • Rust 1.43.x (coming soon!)
コンテナ及びサーバーレスの導⼊状況 • サムネイル画像⽣成 • タイムライン⽣成 • 配信基盤のECSイベント受信 • 監視および監視の有効無効切り替え •
配信基盤 • 低遅延プロキシ • サーバーサイドレンダリングバックエンド 約100以上の関数 ピーク時1Kコンテナ以上稼働
開発組織的には… サーバーレスOK︕ コンテナ開発OK︕ Kubernetesやってみたい︕
Kubernetesを導⼊するモチ ベーション
Kubernetesを導⼊するモチベーション OPENREC.tv リリース当初の使⽤技術 • CentOS 6.4 • PHP 5.6 •
Node 0.10.36 • Apache HTTP Server 2.2 • MySQL 5.5 • Redis 2.0 • 固定ホストなEC2
Kubernetesを導⼊するモチベーション OPENREC.tv 現在の利⽤技術 • AmazonLinux1and2/CentOS7/CentOS6 • EC2 with AutoScale •
ECS • Kubernetes • Docker19.03/18.03/17.03 • PHP7 • Apache HTTP Server 2.4 • Nginx1.14~1.17 • Node10~13(TypeScript2.x) • Java8 • Kotlin • golang 1.10~1.13 • Amazon Aurora • DynamoDB • Redis 2.0~4.0 • Redshift
Kubernetesを導⼊するモチベーション 依存関係が分かりずらい。。 思わぬところへのデプロイ影響 などが出てくるように コンポーネントが増えた結果…
Kubernetesを導⼊するモチベーション 課題をまとめると… • APIやミドルウェア同⼠の依存関係に伴うリリース作業の煩雑化を抑制したい • 想定外の影響範囲によるバグおよびデグレーションを減らしたい • 新機能リリースに関わる他API・コンポーネント修正による開発スピードの低下を改善 したい •
デバッグの煩雑化を何とかしたい • 技術的挑戦にハードルがどんどん上がっている
Kubernetesを導⼊するモチベーション ビジネス • 競合他社の勃興 • 開発もっとスピードアップさせよう︕ • 新機能のリリースサイクルをもっと早く︕ 開発 •
今のままでは開発スピードが上がらない… • 今以上にパラレルで開発を進められる状態が必要︕
Kubernetesを導⼊するモチベーション マイクロサービスアーキテクチャを導⼊することで… • 各APIを疎結合で開発することにより責務を明確化すれば依存関係も⾃明に • 責務が明確になれば影響範囲も⾃明になるのでは︖ • 修正箇所は減らないが、責務が明確なので修正⾃体の⾒通しがつきやすい • APIが限られるのでデバッグも楽に
• せっかくならKubernetesを採⽤してみよう
導⼊するにあたっての条件 • ⼿段にこだわりすぎない (難易度が⾼ければECSなどKubernetes以外にスイッチすることも考える) • サービス開発がメインミッションであり、Kubernetes導⼊はサブミッションであること を忘れない • 新規開発を停⽌するような状況には陥らない •
新機能をリリースすることが最優先である
とは書きましたが… • 実際の所、他オーケストレーションにスイッチすることを考えながら進めていても 中途半端で効率が上がらないので、途中からKubernetes導⼊前提で振り切り プロジェクトを進めました • Kubernetesに限らずですが、性能的・仕様的に必要でない限り、 本当にリリースターゲットをずらせない機能に対しての技術的挑戦は やめておいた⽅が吉でしょう •
開発責任者とスケジュールや案件の温度感等綿密に認識合わせをしておくことが 必須です
既存との並⾏運⽤⽅法について
既存との共存について • 既存APIと同様のドメインにしたかったが、独⾃のBlue/Green⽅式を取っており、 ロードバランサーの設定的にもリリースフロー的にも既存APIと 同等の階層に並べることが難しかった • 既存APIサーバーをBFFのように扱いたかった • バックエンドサービスが死んでいたとしても 何らかのレスポンスを返せるようにしたかった
最初考えていた構成 既存API 新規マイクロサービスAPI
最初考えていた構成 既存API 新規マイクロサービスAPI サブドメインを統⼀したかったが、 うまく⾏かずに断念。 Service Meshは導⼊コストが⾼いので ⾒送り
バックエンド(BFF like)サービスとして構成 ネイティブクライアント⽤レスポンス PC(web)⽤レスポンス user api contents api auth api
stamp api point api etc. Backends For Frontendsの略。 ここではクライアントに対して複数のAPIを束ねて 1つのAPIレスポンスとして返すサーバーという意味で使⽤ 既存API 新規API
user api contents api auth api stamp api point api
etc. バックエンドサービスが死んでいたとしても BFF側で何らかのレスポンスを返せる バックエンド(BFF like)サービスの利点 レスポンスこないな。。 ひとまずデフォルト値を返そう
既存API 新規マイクロ サービスAPI VPC内部に閉じた通信 最終構成
稼働しているサービスの紹介
稼働しているサービスの紹介 開発環境 本番環境 開発メンバー全員 ログインOK 本番権限所有者のみ ログイン可能 スポットインスタンス 100%で稼働 夜間帯はワーカーノード停⽌
スポットインスタンス 50%で稼働
稼働しているサービスの紹介 最終的なインフラ構成全体概要
稼働しているサービスの紹介 ココにKubernetes︕ 最終的なインフラ構成全体概要
稼働しているサービスの紹介 構成管理など - インフラ構成管理: Terraform - マニフェスト管理: Kustomize(kubectlに内包) - CI:
AWS CodeBuild - CD: ArgoCD
稼働しているサービスの紹介 • バックエンドサービス3つ • ALB Ingress Controller • ExternalDNS •
AgroCD • Fluentd • Fluent Bit • Kube-Prometheus • Horizontal Pod Autoscaler • Cluster Autoscaler • Metrics-server • Kubernetes Dashboard
稼働しているサービスの紹介 バックエンドサービス • 使⽤⾔語: Kotlin • 使⽤フレームワーク: Ktor • メモリのlimit,
requestは4096MiBで設定 • CPUは4000mCPU = 4コア割当 • application.ymlはdeployment.ymlのargsディレクティブで指定
Ktorとは • Kotlinのcoroutineを利⽤した⾮同期処理に最適化されたWebFramework • マイクロサービスと相性良さそうと判断し導⼊ • サーバーサイドKotlinに対する技術的好奇⼼ も導⼊を後押しした
稼働しているKUBERNETES運⽤関連サービスを⼀部紹介 ALB Ingress Controller ⽂字通りAWSのALBをIngress Resourceにできるコントローラー アノテーションでヘルスチェックの設定はもちろんルーティング制御なども可能 CLBで良ければ必要ないが⼊れておくと吉 個⼈的には必須要素の1つだと思ってる internalLB,
サブネット, セキュリティグループ, ヘルスチェックパス, SSL証明書, ALBのログ出⼒ を指定している例
稼働しているKUBERNETES運⽤関連サービスを⼀部紹介 ExternalDNS DNSレコードをKubernetesのリソースとして管理出来る 特筆事項として対応しているDNSサーバーの豊富さが挙げられる ingressリソースにhostディレクティブで指定するだけでレコード作成される 個⼈的に⼀番好きなコントローラー
稼働しているKUBERNETES運⽤関連サービスを⼀部紹介 ClusterAcutoscaler ワーカーノードをPodの配備状況によって⾃動的にスケールさせてくれる 最⼩・最⼤稼働台数を指定しておけば⾃動でスケールアウト・インしてくれる Horizontal Pod Autoscaler Pod(コンテナ)のスケールアウト・インを⾃動でやってくれる ⼤きく分けて、リソース使⽤率に基づくスケーリングとカスタムメトリクス(ネットワー クトラフィックとか)に基づくスケーリングポリシーが取れる
リリースフローについて developブランチにpush CodeBuildでJarビルド dockerビルド ECRにpush argoCDがgithubのイベントhookし 開発環境にタグがついたイメージをrollout アプリケーション開発者は基本的にKubernetesに触ることなく 開発環境にコードを反映可能 本番環境のみ⼿動でロールアウトを実施
→ →
リポジトリにある状態と差分が無い状態を保とうとしてくれる 何もしなくても最新のコードがデプロイされる︕ 差分がない状態 差分がある状態
アプリケーションだけでなくALBIngressControllerや PrometheusもArgoCDで状態管理
稼働しているサービスの紹介 受けられる恩恵をまとめると… • アプリケーション開発をするエンジニアは、 サーバー・インフラを意識することなく開発が可能 • 既存では不完全だったCI/CDフローをほぼ完全に実現 • 開発環境に今何がデプロイされているのか不明になるが無くなった
直⾯した問題たち
考慮しなきゃいけないこと • ネットワーク(VPC)設計 • 性能検証 • 構成管理 • デプロイ(CI/CD) •
障害対応など 当たり前だが⼀⼈で担当できる量ではない。。 SREチームで分担して担当
Issue総数160弱
何⼊れてもおkクラスタ(通称魔窟クラスタ)
直⾯した問題たち(IPアドレス枯渇問題) 11アドレスしか各サブネットで在庫が無く、これ以上⽴ち上がらない状態に
直⾯した問題たち(IPアドレス枯渇問題) サブネット単位でアプリケーションを管理する必要もないので、20bitで切ることで回避 現在は1クラスタ4091 x 6サブネット = 24546IPアドレス使⽤可能 2万アドレスあれば 今の使い⽅では 流⽯に枯渇しないはず
直⾯した問題たち(DNSレコードの管理について) • DNSレコードは今まで⼿動で管理 • ExternalDNSは使いたいが、 ExternalDNSの不具合等で既存のレコード削除などの事故は防ぎたい • DNSの権限委任を利⽤し、ドメイン管理を階層化して 操作出来るDNSのスコープを絞って対応 •
更に不⽤意なレコード削除を防ぐためレコードの更新のみ出来る状態にして運⽤
直⾯した問題たち(DNSレコードの管理について) Kubernetesからopenrec.tvの階層でサービス展開したい場合は、 上層のネームサーバーにCNAMEでsvc.openrec.tvのレコードを登録して向けばOK 新設(原則Kubernetesからのみ操作可能)
直⾯した問題たち(SQL発⾏されすぎ問題) 1クエリのために5クエリ余分に発⾏されている
直⾯した問題たち(SQL発⾏されすぎ問題) Issue: https://github.com/JetBrains/Exposed/issues/306 I'm not sure that using Exposed's transactions
with auto-commit is a good idea because in that case, we shouldn't use built-in Entity cache or we can see the wrong state of entities. Exposedのトランザクションをオートコミットで使うのは、その場合は組み込みの Entityキャッシュを使うべきではないし、間違った状態のEntityを⾒てしまうこともあるので、 あまりいい考えではないと思います。
直⾯した問題たち(SQL発⾏されすぎ問題) 改善前 改善後 専⽤クラスを⽤意し、overrideして発⾏するSQLを抑制
(当たり前ですが)チューニングはちゃんとしましょう 弊社藤井が本⽇『EKS x locustで構築する⼤規模負荷試験環』という表題で LT予定なので是⾮ご覧下さい
今後の展望
今後の展望 リソース集約によるコスト削減を⽬的とした既存サービスの移⾏ →
今後の展望 ⽐較的ステートフルな通信をするWebsocketサーバーの構築 →
まとめ
まとめ 2019年6⽉ プロジェクトスタート 2019年12⽉上旬 リリース完了 約6ヶ⽉弱でプロジェクト完了
まとめ Kubernetesじゃなくても⼗分実現できる内容なのでは︖ Custom ControllerやCustom Resourceを 使ってこそKubernetesなのでは︖
まとめ まず運⽤出来る形までもっていく (運⽤出来る程度は開発組織に寄って異なる) ⼀旦Kubernetesの⼟台を整備したらこっちのもの 新しい機能は徐々に⼊れていこう
まとめ • Kubernetesを利⽤して、今までになかったユーザー体験を どのように提供出来るか • 新たなユーザ体験を提供する基盤としてのKubernetes
まとめ • Kubernetesは(基本的に使うだけなら)もう難しくない(ただし導⼊コストが⾒合っている かは議論の余地あり) • CI/CDパイプラインの設定及びGitのブランチ運⽤は開発メンバーで⼗分に議論し決める 必要あり(ここを怠ると開発効率が致命的に下がる) • Kubernetesを使っていることを意識させない運⽤も⼤切 •
Kubernetesを⽤いてどのようなユーザー体験を提供出来るのかを常に考える必要がある • 新しいものに抵抗が無い若⼿に任せると勝⼿にいい感じにしてくれるから思い切って ⾊々任せてみる
We Are Hiring︕