オンプレからAWSへの移設とそのヒント

2016ba6b977a2e6691811fa66d5f4336?s=47 CyberAgent
February 22, 2019

 オンプレからAWSへの移設とそのヒント

サイバーエージェントの技術者(エンジニア・クリエイター)向けカンファレンス『CA BASE CAMP 2019』
オンプレからAWSへの移設とそのヒント

2016ba6b977a2e6691811fa66d5f4336?s=128

CyberAgent

February 22, 2019
Tweet

Transcript

  1. I-01オンプレからAWSへの移行と そのヒント ホールE-16:00-16:30 須藤・Torgayev・庭木・長谷部・小林

  2. 登壇者の紹介 に移設した理由 移設計画 データの移行について まとめ

  3. 登壇者の紹介

  4. ティーマ 2017年2月 内定者アルバイト入社 サイバーエージェント 技術本部 サービスリライアビリティグループ (SRG) 2018年4月 サイバーエージェント新卒入社 SRG配属

    AWS (特にECS、Lambda)、Elasticsearch、Terraform、 Datadogを専門とし、メディアの新規 立ち上げサポート、既存サービスの改善に携わる メディアのTerraform共通化プロジェクト立ち上げ AWA、REQU、タップル誕生、CROSS MEを担当
  5. 庭木 勝也 2012年 C.A.MOBILE 新卒入社 FanaTech 開発局 DC運用、OpenStack導入や、DC間のサービスの移 管、買収サービスのAWS移管にも従事。 2017/7月からは、社内システムも追加で担当。

    現在は、新規サービスの開発でGKEとIstioに注力
  6. 長谷部 充洋 2018年7月 中途入社 サイバーエージェント SGE統括本部 技術統括室 2012年7月にサイバーエージェントに入社 NBU、アメーバ、アドテクにてインフラエンジニアを担当 一度退職し、某クラウド事業者にてサポートエンジニアに従事 2018年に再度入社し、現在は

    SGE管轄内で主にインフラに 関連する部分の技術支援を担当 好きな AWS のサービスは Auto Scaling
  7. 小林 邦明 2012年 CA Advance 中途入社 2013年 サイバーエージェント アドテク本部 移動 Strategic

    Infrastructure Agency Group Solution Architect Team 所属 アドテク本部内で開発される各サービスのインフラ技術 支援を担当 オンプレ、社内クラウド、AWS、GCPと多様な 環境だが、一番好きなのはAWS
  8. 須藤 涼介 2006年 サイバーエージェント アルバイト入社 技術本部 サービスリライアビリティグループ(SRG) マネージャー カスタマーサポートから1年弱でインフラエンジニアに転 向、アメーバピグや各種ソシャゲ、AbemaTVなどメディ ア事業のサービス立ち上げや運用を経て、現在はメディ

    ア事業のインフラ領域を横断的にサポートするSRGの マネージメントを行う
  9. に移設した理由 移設のきっかけ なぜ を選んだのか

  10. に移設した理由 • に移設した実績があった ◦ • データセンターの基幹スイッチなどハードウェアの保守切れ ◦ 、セルフィ、アドテク本部 • オンプレを保守運用する人員の確保問題

    ◦ 、セルフィ • サイバーエージェントグループ内の豊富な利用事例 ◦ セルフィ、アドテク本部、タップル • マネージドサービスを導入していきたい、オートスケーリングを利用したい ◦ タップル
  11. 移行計画 タップル誕生

  12. タップル誕生

  13. タップル誕生 • 趣味で繋がる恋活サービス • 会員数 万人以上、マッチング数は延べ 億 万組 • 国内最大規模

  14. https://tapple.me

  15. 1. データ層以外のものはオンラインで移設できるから、 メンテ入れてデータ層だけを先に移設させる 2. アプリ層をアーキテクチャ変えず持っていく メンテ入れず、徐々に切り替え 3. マイクロサービス化などの改善 ポイント:小さく進めて「チェックポイント」を作っていく データを先に持っていく理由:パフォーマンスの問題

    タップル誕生: 移設計画
  16. 1 6 Before

  17. • マネージドにできるものはマネージドにする ◦ Redis → ElastiCache (Redis) ◦ MySQL →

    RDS (Aurora) • マネージドにできないものはそのまま持っていく ◦ MongoDBそのまま持っていく (各アプリサーバに乗っているmongosをプロキシに使う) ◦ Elasticsearchもそのまま、ALBでアクセスを分散 • Private CloudからAWSデータ層へのアクセスはDirect Connect経由 (途中でmuninとsensuがDatadogにリプレイスされて、 Jenkinsとpostfixが消える) タップル誕生: 移設
  18. 1 8 After step 1 ほぼそのままAWSに

  19. タップル誕生: 移設 • 構成を大きく変えず、アプリ層をそのまま持っていく ◦ 仮想サーバ → EC2 Instanceとして持っていくだけ ◦

    EC2 Auto Scaling Groupを利用 ◦ haproxy、nginxをALBにリプレイス ◦ 静的コンテンツの配信は、S3+CloudFront • APIアクセスはRoute 53 Traffic Flowで徐々に段階的に流す ◦ xx% でオートスケールでピーク捌けるか? ◦ 問題が起きたらすぐ切り戻せる
  20. After step 2

  21. Traffic Flow

  22. タップル誕生: 移設 コンテナ化構成、を一旦大まかに • API: ECS EC2 Type • Batch:

    ECS Fargate Type (スケーリング設計簡略化) • MongoDBへのアクセス: mongos専用EC2 Instance x3経由 • ログ周り: Kinesis+Lambda 今後のマイクロサービス化へ…
  23. After step 3

  24. タップル誕生:まとめ • データ層の移行はメンテ入れる • アプリ層はRoute 53 Traffic Flowでオンライン切り替え • スモールスタート

    • 切り戻しが難しいものを最後に持っていく ◦ ただし、パフォーマンスなど、先に解決したい課題があれば、 そこからスタートしても良し • 一気にアーキテクチャを変えない • 小さく進めて「チェックポイント」を作っていく
  25. None
  26. が展開する事業 音楽 芸能 ヘルス ケア 占い スポーツ ローカ ライズ 占い・芸能・音楽・ヘルスケア・スポーツ・ユーティリティ

    … 様々なジャンルのWebサイト、アプリを提供。 海外アプリのローカライズも実施。
  27. 移設概要 • 主な移設実施期間 月 月 • 、 で提供している約 サービス ◦

    関連部署は つ ◦ 占い・アーティスト・コンテンツ・課金、整合システム • キャリア課金・クレカ課金あり • の課金システムを統合 • エンジニア主導
  28. 移設計画と 移設計画 • 決済基盤を構築する 複数環境をマージ • アプリケーションの変更はしない • システム構成の共通化 •

    メンテナンスは、分けて実施 ◦ キャリア決済で最低 回実施 • のサービスの精査、クローズを実施 • エンジニア主導で移設を推進 • 全社朝会やポスターを利用し社内の認知度向上 • 行けるものからどんどん移設 その他Tips • 決済システムに想定外のサービスのログがないか調査 • キャリアは ヶ月前には、サービスクローズ申請手続き • テスト端末は早めに確保して、課金可能額も確 認 • テスト利用時の を コードを印刷して準備 • 打ち合わせ、移設時にホワイトボードを利用 ◦ 進捗と認識を合わせ写真に記録し共有共有 • メンテ時に発生した事象をポスト・イットに書き、対処できる 人にアサイン たくさんあるが、 つだけ紹介
  29. メンテナンスは分けて実施 データベース 決済 ウェブアプリケーションに分けて実施 1. AWS Direct Connectを利用し、データベースを先行して移設 2. 決済を移設

    3. ウェブアプリケーションやバッチなどを移設 よかったこと ・複数回実施することで、問題発生時の切り分けがスムーズに!!! ・準備までの作業者のタスクやメンテナンス時の作業がより明確に!!! ・決済切り替えが、 サービス合わせて、 時間で終わることも!!
  30. テスト端末 (フューチャーフォン)は早めに準備を! • キャリア契約年数によって、 ヶ月の課金上限金額が異なる • 移設サービスが多いため、課金上限に達する 移設開始時に端末が足りなかった →  のみ新規契約で

    を 枚ほど追加購入 → 部署間で運用利用端末を貸し借り → テスト端末の手配は移設推進グループで実施
  31. 移設に利用した技術 CI・バッチ 監視・外形監視 bot ・通知・コミュニケーション 開発環境・コード管理 ログの管理 アプリケーション Amazon S3

    Memcached Redis Amazon ECS Amazon RDS メール送受信・配信 Cloudformation Amazon EFS AWS Batch
  32. Google Big Query Amazon S3 Fluentd aggregator Fluentd collector container

    Network LoadBalancer ECS Instance Application LoadBalancer DatadogAgent container Dashboard Service container ローカル環境 ECR ECS Instance 共通化した構成
  33. 前編、後編の二部構成で本日公開 エンジニアブログ

  34. データの移行について セルフィ アドテク本部

  35. セルフィ

  36. セルフィ • 株式会社ジークレストによる開発・運営 • 「セルフィ」と呼ばれるオリジナルアバターを着せかえて遊ぶア バターゲーム • スマホ/PC向け • 超長期運用(12年超)

  37. セルフィ:システム紹介 • 構成 一般的なウェブアプリケーション アプリケーションサーバ / DB / キャッシュ /

    NAS (共有ストレージ) • データ層 RDB(PostgreSQL / MySQL) 複数系統で合計 4TB くらい NAS NFSでマウント、主にアバター画像など 合計 3TB くらい
  38. セルフィ:移設の概要 • 期間 技術選定や調査などを含めて10ヶ月程度 • 使用している主なサービス Route53 / ELB /

    EC2 / ElastiCache / S3 • 今回のスコープで使用を見送ったサービス Amazon Aurora / DMS / EFS (直前で東京リージョンでリリース )
  39. セルフィ:データ層の移設の方法 • PostgreSQL / MySQL DMS を検証するもうまくいかず → 結局、通常のレプリケーション機能で同期 •

    NAS rsync でざっくりと同期 更新差分についてはログに残して一定間隔で同期
  40. セルフィ:移設を振り返って • DMS は素晴らしいけど要検証 一部の DB のテーブル構成に起因して、特定のデータが正常にコピー されず、DB の集約および Aurora

    への移行を断念しました。 大半のケースでは DMS は力を発揮するツールですが、 きちんと事前に検証しましょう。 ※ソース DB 側(移行前の既存環境)のスキーマを変更すればよかったのですが諸々の事情で変更できず。 • 東京リージョンではまだ使えなかったサービス EFS は移設予定日の直前にローンチされるも検証時間不足で断念。
  41. アドテク本部

  42. アドテク本部 • ~ サイバーエージェント グループ各社でアドテクノロジー関連の 開発をしていた各社が集合して立ち上がった組織 • 常時 程度のサービスを運営 開発中

    • アドテク以外にも 、ロボット インターネット広告本部用システム 、
  43. • 対象はインターネット広告本部のMysqlDB • IO Drive搭載のオンプレ環境からAuroraへ • 5セット(10台)を1(2台)セットに • 無停止移行を希望(切替時の寸断は可) アドテク本部:

    移設計画とポイント
  44. • DB1台あたり1TB~10TB • レコード数は1Table あたり 1~30億 が数十 • 1日に約5億レコードを更新 •

    移行にはAWSのDatabaseMigrationService(DMS)を利用 … したかった アドテク本部: 移設計画とポイント
  45. • 永遠に終わらないReplication。DMSは過信するなかれ • Aurora Mysql互換の罠。Mysql5.6互換は5.6.10と思うこと • 最大64TB。でもLocalSpaceは1.2TB • Partitionとbinlogはよく考えてから。新機能で非対応多し •

    ReadReplicaでも遅延? アドテク本部:移行時と移行後の意外なポイント
  46. まとめ

  47. ご清聴ありがとうございました。