Slide 1

Slide 1 text

I-01オンプレからAWSへの移行と そのヒント ホールE-16:00-16:30 須藤・Torgayev・庭木・長谷部・小林

Slide 2

Slide 2 text

登壇者の紹介 に移設した理由 移設計画 データの移行について まとめ

Slide 3

Slide 3 text

登壇者の紹介

Slide 4

Slide 4 text

ティーマ 2017年2月 内定者アルバイト入社 サイバーエージェント 技術本部 サービスリライアビリティグループ (SRG) 2018年4月 サイバーエージェント新卒入社 SRG配属 AWS (特にECS、Lambda)、Elasticsearch、Terraform、 Datadogを専門とし、メディアの新規 立ち上げサポート、既存サービスの改善に携わる メディアのTerraform共通化プロジェクト立ち上げ AWA、REQU、タップル誕生、CROSS MEを担当

Slide 5

Slide 5 text

庭木 勝也 2012年 C.A.MOBILE 新卒入社 FanaTech 開発局 DC運用、OpenStack導入や、DC間のサービスの移 管、買収サービスのAWS移管にも従事。 2017/7月からは、社内システムも追加で担当。 現在は、新規サービスの開発でGKEとIstioに注力

Slide 6

Slide 6 text

長谷部 充洋 2018年7月 中途入社 サイバーエージェント SGE統括本部 技術統括室 2012年7月にサイバーエージェントに入社 NBU、アメーバ、アドテクにてインフラエンジニアを担当 一度退職し、某クラウド事業者にてサポートエンジニアに従事 2018年に再度入社し、現在は SGE管轄内で主にインフラに 関連する部分の技術支援を担当 好きな AWS のサービスは Auto Scaling

Slide 7

Slide 7 text

小林 邦明 2012年 CA Advance 中途入社 2013年 サイバーエージェント アドテク本部 移動 Strategic Infrastructure Agency Group Solution Architect Team 所属 アドテク本部内で開発される各サービスのインフラ技術 支援を担当 オンプレ、社内クラウド、AWS、GCPと多様な 環境だが、一番好きなのはAWS

Slide 8

Slide 8 text

須藤 涼介 2006年 サイバーエージェント アルバイト入社 技術本部 サービスリライアビリティグループ(SRG) マネージャー カスタマーサポートから1年弱でインフラエンジニアに転 向、アメーバピグや各種ソシャゲ、AbemaTVなどメディ ア事業のサービス立ち上げや運用を経て、現在はメディ ア事業のインフラ領域を横断的にサポートするSRGの マネージメントを行う

Slide 9

Slide 9 text

に移設した理由 移設のきっかけ なぜ を選んだのか

Slide 10

Slide 10 text

に移設した理由 ● に移設した実績があった ○ ● データセンターの基幹スイッチなどハードウェアの保守切れ ○ 、セルフィ、アドテク本部 ● オンプレを保守運用する人員の確保問題 ○ 、セルフィ ● サイバーエージェントグループ内の豊富な利用事例 ○ セルフィ、アドテク本部、タップル ● マネージドサービスを導入していきたい、オートスケーリングを利用したい ○ タップル

Slide 11

Slide 11 text

移行計画 タップル誕生

Slide 12

Slide 12 text

タップル誕生

Slide 13

Slide 13 text

タップル誕生 • 趣味で繋がる恋活サービス • 会員数 万人以上、マッチング数は延べ 億 万組 • 国内最大規模

Slide 14

Slide 14 text

https://tapple.me

Slide 15

Slide 15 text

1. データ層以外のものはオンラインで移設できるから、 メンテ入れてデータ層だけを先に移設させる 2. アプリ層をアーキテクチャ変えず持っていく メンテ入れず、徐々に切り替え 3. マイクロサービス化などの改善 ポイント:小さく進めて「チェックポイント」を作っていく データを先に持っていく理由:パフォーマンスの問題 タップル誕生: 移設計画

Slide 16

Slide 16 text

1 6 Before

Slide 17

Slide 17 text

● マネージドにできるものはマネージドにする ○ Redis → ElastiCache (Redis) ○ MySQL → RDS (Aurora) ● マネージドにできないものはそのまま持っていく ○ MongoDBそのまま持っていく (各アプリサーバに乗っているmongosをプロキシに使う) ○ Elasticsearchもそのまま、ALBでアクセスを分散 ● Private CloudからAWSデータ層へのアクセスはDirect Connect経由 (途中でmuninとsensuがDatadogにリプレイスされて、 Jenkinsとpostfixが消える) タップル誕生: 移設

Slide 18

Slide 18 text

1 8 After step 1 ほぼそのままAWSに

Slide 19

Slide 19 text

タップル誕生: 移設 ● 構成を大きく変えず、アプリ層をそのまま持っていく ○ 仮想サーバ → EC2 Instanceとして持っていくだけ ○ EC2 Auto Scaling Groupを利用 ○ haproxy、nginxをALBにリプレイス ○ 静的コンテンツの配信は、S3+CloudFront ● APIアクセスはRoute 53 Traffic Flowで徐々に段階的に流す ○ xx% でオートスケールでピーク捌けるか? ○ 問題が起きたらすぐ切り戻せる

Slide 20

Slide 20 text

After step 2

Slide 21

Slide 21 text

Traffic Flow

Slide 22

Slide 22 text

タップル誕生: 移設 コンテナ化構成、を一旦大まかに • API: ECS EC2 Type • Batch: ECS Fargate Type (スケーリング設計簡略化) • MongoDBへのアクセス: mongos専用EC2 Instance x3経由 • ログ周り: Kinesis+Lambda 今後のマイクロサービス化へ…

Slide 23

Slide 23 text

After step 3

Slide 24

Slide 24 text

タップル誕生:まとめ ● データ層の移行はメンテ入れる ● アプリ層はRoute 53 Traffic Flowでオンライン切り替え ● スモールスタート ● 切り戻しが難しいものを最後に持っていく ○ ただし、パフォーマンスなど、先に解決したい課題があれば、 そこからスタートしても良し ● 一気にアーキテクチャを変えない ● 小さく進めて「チェックポイント」を作っていく

Slide 25

Slide 25 text

No content

Slide 26

Slide 26 text

が展開する事業 音楽 芸能 ヘルス ケア 占い スポーツ ローカ ライズ 占い・芸能・音楽・ヘルスケア・スポーツ・ユーティリティ … 様々なジャンルのWebサイト、アプリを提供。 海外アプリのローカライズも実施。

Slide 27

Slide 27 text

移設概要 ● 主な移設実施期間 月 月 ● 、 で提供している約 サービス ○ 関連部署は つ ○ 占い・アーティスト・コンテンツ・課金、整合システム ● キャリア課金・クレカ課金あり ● の課金システムを統合 ● エンジニア主導

Slide 28

Slide 28 text

移設計画と 移設計画 ● 決済基盤を構築する 複数環境をマージ ● アプリケーションの変更はしない ● システム構成の共通化 ● メンテナンスは、分けて実施 ○ キャリア決済で最低 回実施 ● のサービスの精査、クローズを実施 ● エンジニア主導で移設を推進 ● 全社朝会やポスターを利用し社内の認知度向上 ● 行けるものからどんどん移設 その他Tips ● 決済システムに想定外のサービスのログがないか調査 ● キャリアは ヶ月前には、サービスクローズ申請手続き ● テスト端末は早めに確保して、課金可能額も確 認 ● テスト利用時の を コードを印刷して準備 ● 打ち合わせ、移設時にホワイトボードを利用 ○ 進捗と認識を合わせ写真に記録し共有共有 ● メンテ時に発生した事象をポスト・イットに書き、対処できる 人にアサイン たくさんあるが、 つだけ紹介

Slide 29

Slide 29 text

メンテナンスは分けて実施 データベース 決済 ウェブアプリケーションに分けて実施 1. AWS Direct Connectを利用し、データベースを先行して移設 2. 決済を移設 3. ウェブアプリケーションやバッチなどを移設 よかったこと ・複数回実施することで、問題発生時の切り分けがスムーズに!!! ・準備までの作業者のタスクやメンテナンス時の作業がより明確に!!! ・決済切り替えが、 サービス合わせて、 時間で終わることも!!

Slide 30

Slide 30 text

テスト端末 (フューチャーフォン)は早めに準備を! • キャリア契約年数によって、 ヶ月の課金上限金額が異なる • 移設サービスが多いため、課金上限に達する 移設開始時に端末が足りなかった →  のみ新規契約で を 枚ほど追加購入 → 部署間で運用利用端末を貸し借り → テスト端末の手配は移設推進グループで実施

Slide 31

Slide 31 text

移設に利用した技術 CI・バッチ 監視・外形監視 bot ・通知・コミュニケーション 開発環境・コード管理 ログの管理 アプリケーション Amazon S3 Memcached Redis Amazon ECS Amazon RDS メール送受信・配信 Cloudformation Amazon EFS AWS Batch

Slide 32

Slide 32 text

Google Big Query Amazon S3 Fluentd aggregator Fluentd collector container Network LoadBalancer ECS Instance Application LoadBalancer DatadogAgent container Dashboard Service container ローカル環境 ECR ECS Instance 共通化した構成

Slide 33

Slide 33 text

前編、後編の二部構成で本日公開 エンジニアブログ

Slide 34

Slide 34 text

データの移行について セルフィ アドテク本部

Slide 35

Slide 35 text

セルフィ

Slide 36

Slide 36 text

セルフィ • 株式会社ジークレストによる開発・運営 • 「セルフィ」と呼ばれるオリジナルアバターを着せかえて遊ぶア バターゲーム • スマホ/PC向け • 超長期運用(12年超)

Slide 37

Slide 37 text

セルフィ:システム紹介 • 構成 一般的なウェブアプリケーション アプリケーションサーバ / DB / キャッシュ / NAS (共有ストレージ) • データ層 RDB(PostgreSQL / MySQL) 複数系統で合計 4TB くらい NAS NFSでマウント、主にアバター画像など 合計 3TB くらい

Slide 38

Slide 38 text

セルフィ:移設の概要 • 期間 技術選定や調査などを含めて10ヶ月程度 • 使用している主なサービス Route53 / ELB / EC2 / ElastiCache / S3 • 今回のスコープで使用を見送ったサービス Amazon Aurora / DMS / EFS (直前で東京リージョンでリリース )

Slide 39

Slide 39 text

セルフィ:データ層の移設の方法 • PostgreSQL / MySQL DMS を検証するもうまくいかず → 結局、通常のレプリケーション機能で同期 • NAS rsync でざっくりと同期 更新差分についてはログに残して一定間隔で同期

Slide 40

Slide 40 text

セルフィ:移設を振り返って • DMS は素晴らしいけど要検証 一部の DB のテーブル構成に起因して、特定のデータが正常にコピー されず、DB の集約および Aurora への移行を断念しました。 大半のケースでは DMS は力を発揮するツールですが、 きちんと事前に検証しましょう。 ※ソース DB 側(移行前の既存環境)のスキーマを変更すればよかったのですが諸々の事情で変更できず。 • 東京リージョンではまだ使えなかったサービス EFS は移設予定日の直前にローンチされるも検証時間不足で断念。

Slide 41

Slide 41 text

アドテク本部

Slide 42

Slide 42 text

アドテク本部 • ~ サイバーエージェント グループ各社でアドテクノロジー関連の 開発をしていた各社が集合して立ち上がった組織 • 常時 程度のサービスを運営 開発中 • アドテク以外にも 、ロボット インターネット広告本部用システム 、

Slide 43

Slide 43 text

• 対象はインターネット広告本部のMysqlDB • IO Drive搭載のオンプレ環境からAuroraへ • 5セット(10台)を1(2台)セットに • 無停止移行を希望(切替時の寸断は可) アドテク本部: 移設計画とポイント

Slide 44

Slide 44 text

• DB1台あたり1TB~10TB • レコード数は1Table あたり 1~30億 が数十 • 1日に約5億レコードを更新 • 移行にはAWSのDatabaseMigrationService(DMS)を利用 … したかった アドテク本部: 移設計画とポイント

Slide 45

Slide 45 text

• 永遠に終わらないReplication。DMSは過信するなかれ • Aurora Mysql互換の罠。Mysql5.6互換は5.6.10と思うこと • 最大64TB。でもLocalSpaceは1.2TB • Partitionとbinlogはよく考えてから。新機能で非対応多し • ReadReplicaでも遅延? アドテク本部:移行時と移行後の意外なポイント

Slide 46

Slide 46 text

まとめ

Slide 47

Slide 47 text

ご清聴ありがとうございました。