$30 off During Our Annual Pro Sale. View Details »

Airワーク採用管理での改善活動とDevOpsへの歩み / DevOpsDays_nishimura

Recruit
April 22, 2022

Airワーク採用管理での改善活動とDevOpsへの歩み / DevOpsDays_nishimura

2022/04/21_DevOpsDays Tokyo 2022での、西村の講演資料になります

Recruit

April 22, 2022
Tweet

More Decks by Recruit

Other Decks in Technology

Transcript

  1. 自己紹介 西村祐樹 所属 株式会社リクルート 部署 プロダクト統括本部 プロダクト開発統括室 プロダクトディベロップメント室 HR領域プロダクトディベロップメントユニット HR領域エンジニアリング部 HRアーキテクトグループ

    ちょうど3ヶ月前にも弊社の改善事例について お話させていただきました https://speakerdeck.com/recruitengineers/tech-meetup2-nishimura アーキテクトが考えるシステム改善を 継続するための心得
  2. 全体構成概要について node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ 兼用

    Web用 CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW SES Lambda Aurora Postgres ElastiCache モニタリング S3
  3. まずは利用拡大に伴い起こることを整理し現状把握を進める 利用拡大によって何が起きるかを整理し 「システム負荷」「品質劣化」「運用負荷」 それぞれの懸念の深刻度合いを見ていくことにした 利用拡大に伴い何が起こる? アカウント数増える 案件増える アカウントに紐づく データが増える アクセスが増える

    コードの変更が増える 機能が増える Web, DBサーバ負荷増加 バッチ処理時間増加 Webレスポンス劣化 コードの複雑度増加 変更による障害率増加 品質劣化懸念 システム負荷懸念 デプロイ手順, 時間増加 テスト環境枯渇 開発者/並走案件が増える 運用負荷懸念
  4. node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ 兼用 Web用

    CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW SES Lambda Aurora Postgres ElastiCache モニタリング S3 システム負荷懸念について 利用拡大による懸念ポイントは? 起きることとしてはこの2つ アクセスが増 える ここが増える データ量も増 える
  5. node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ 兼用 Web用

    CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW SES Lambda Aurora Postgres ElastiCache モニタリング S3 システム負荷懸念について 利用拡大による懸念ポイントは? 発生する懸念としてはこれらがある ストレージ不足 性能劣化 CPU負荷増加 メモリ不足 バッチ実行時間増加 メモリ不足 メモリ不足 送信数上限 同時実行上限
  6. システム負荷懸念について それぞれの対策について EC2, ElastiCache, RDSともにスケールアップという手段はあるもののスケールキューブの考え方をベースに他 の対策案も検討 X軸: 水平スケール(例: インスタンスを追加) Y軸:

    機能軸で分離(例: 更新, 参照でアクセス先DBインスタンスを分ける、機能軸でデータも分離する ) Z軸: シャーディング(例: アカウントIDの偶数、奇数で格納インスタンスを分ける ) X軸 Y軸 Z軸 X軸 Y軸 Z軸 Web インスタンス追加 機能ごとのさらなる分離 (マイクロサービス化 ) - バッチ(実行時間) 並列処理化 - - ElastiCache - 機能ごとにインスタンスを分け クラスタ構成&シャーディング RDS スケールアウト(Readレ プリカのみ) 読み込み専用機能は Readレ プリカを使う インスタンス分け SES, Lambda - - マルチリージョン化 ケアすべき箇所と対策案を整理して利用拡大に備えることに
  7. node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ 兼用 Web用

    CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW SES Lambda Aurora Postgres ElastiCache モニタリング S3 システム負荷懸念について 必要な項目見れてる? RDSのメトリクスも見 れる EC2のメトリクス は見れる ElastiCacheは一部 取得していないもの あり 5xx, 4xxエラー頻 度は見れるが レスポンス時間 は未取得 バウンス率は見れる が送信数は未取得 処理時間など未取得 やや不足気味なので必要な項目は追加すべきと認識
  8. システム負荷懸念について ・検知はするけど特に何もしないもの 例: 負荷の高いバッチが実行されたことにより CPU負荷が一時的に高騰した ・検知して調査はするもの サービス影響ない場合 ★こっちが9割くらい締めてる 例: エラーログが出ているが対応中だったり、

    対応優先度低としているもの 極力なくすべき または別の指標に置き換えるべき 頻出したら優先度上げて 減らすようにすべき サービス影響出た場合 ・突発的な問題により回避が難しいもの ・事前対策で回避できた可能性があるもの どうしようもないので発生都度対応と 自動復旧の仕組み化などをしていくべし システムモニタリングによる傾向分析などの 予 防活動をしておくべき 例: 突発的なサーバ障害、マネージド機能障 害 例: アクセス増加でDB負荷が高まり CPU100%張り付き モニタリングしていても活用についてアップデートが追いついていないと認識
  9. デプロイ手順は? 運用負荷懸念について node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ

    兼用 Web用 CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW ①コード取得 ②イメージビルド ③イメージ登録 ④k8s apply すでにCI/CDの仕組みはありデプロイ手順自体に大きな課題はなし
  10. デプロイ時間は? 運用負荷懸念について node group(CL用) node group(CS用) VPC k8sクラスタ Web バッチ

    兼用 Web用 CI/CDシステム (ConcourseCI) ECR Github Enterprise 社内NW ①コード取得 ②イメージビルド ③イメージ登録 ④k8s apply ここが約1時間かかる サービス立ち上げ当初より も徐々に伸びている 毎回リリース当日にイメージビルドを実施していたため時間がかかりつつあった
  11. デプロイ時間は? 運用負荷懸念について スキーマ変更を伴うリリースではメンテナンスリリースを実施しており、深夜作業も発生 今後の機能追加に伴い時間が伸びる懸念があったため事前ビルド方式が必要と判断 メンテナンスモー ド切り替え ビルド& イメージ登録 デプロイ 内部動作

    確認 DBマイグ レーション メンテナンスモー ド切り替え 03:00 05:00 ここだけで1時間 メンテナンスモー ド切り替え デプロイ 内部動作 確認 DBマイグ レーション メンテナンスモー ド切り替え 03:00 04:00 こうできるはず ※ビルド&イメージ登録は前日に済ませる
  12. 運用負荷懸念について テスト環境は足りる? 案件 案件 案件 案件 テスト環境1 テスト環境2 大型案件A 大型案件B

    案件C 案件D 案件E 確認待ち or 一時的に環境拝借 テスト環境としては2つあるが、人員、案件の増加に伴い足りなくなる恐れがあった 企画、開発者の人数増 案件増 ここで詰まる 開発フローや運 用負荷に影響
  13. 運用負荷懸念について テスト環境は足りる? 案件 案件 案件 案件 テスト環境1 テスト環境2 大型案件A 大型案件B

    シンプルに増築することも可能だったが、インフラ作業のリードタイムがかかるのと今後の拡張性を 見据えてテスト用のEKS環境を用意することに 企画、開発者の人数増 案件増 EKS C用環境 D用環境 E用環境 案件C 案件D 案件E ブランチごとに環境を複製 できる仕組みを構築 過去にタウンワークで実施 したノウハウを転用
  14. 開発T 対応優先度を決めて各チームと連携 アーキ側で各対応についてのハンドリングをして徐々に進めていくスタイルを実施 アーキテ クトT インフラT 1.システム負荷 モニタリング項目追加 スケール対策検討 アラート見直し

    2.運用負荷 デプロイ改善 テスト環境拡張 3.品質劣化 設計/コードレビュー ..その他発生ベースで適宜 優先度判断 具体案検討 タスク化 適宜対応依頼
  15. 結果、利用拡大に伴う各懸念についてのBefore, After 4月から活動開始し7月頃には概ね対応が落ち着く めでたしめでたし!と言いたいところだったが。。。 システム負荷懸念 品質劣化懸念 運用負荷懸念 利用拡大に伴う各主スケール案不足 モニタリングすべき項目不足 アラートの形骸化、予防活動不足

    スケール案整備 各種項目追加と可視化完了 アラート見直し、モニタリング体制の確立 クリティカルな品質低下要因は見つからず 高難度な案件についてレビューする体制を 構築 デプロイ時間増加に伴う深夜作業負荷 平行案件増加に伴うテスト環境不足 デプロイ改善に伴う作業時間削減 テスト環境拡張で動作確認効率化 Before After
  16. Airワーク開発体制(ヒト) AWS(システム) 参画時の開発体制とそれぞれの担当部分について 一見すると違和感のない体制かつ役割分担に見える Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 EC2

    バックエンド アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch
  17. Airワーク開発体制(ヒト) AWS(システム) 参画時の開発体制とそれぞれの担当部分について Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 EC2 バックエンド

    アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch 実はサービス全体の運用の専任者はいない 問題発生ベースで全力対応はするが、予防や改善活動などまで手が回らない状態 インフラT ≠ 運用T リリース作業などの定常作業 は開発Tが担当
  18. 他システム体制 Airワーク開発体制 参画時の開発体制とそれぞれの担当部分について インフラTが運用/改善の主体になればと考えたがそもそもそのためのチームではないことを認識 Airワーク開発T バックエンド担当 フロントエンド担当 横断インフラT インフラ担当 他開発T

    バックエンド担当 フロントエンド担当 安定稼働担当 インフラ担当 インフラ障害や問い合わせ , 保守対応で必 要なことがあればお互いに連携 AWS障害や問い合わせ , 保守対応で必要な ことがあればお互いに連携 インフラに関するスキルは持って いるが、横断的にサポートをする のがメイン 各サービスの運用や改善の推進 はサービス側が主導する座組であ る
  19. Airワーク開発体制(ヒト) AWS(システム) 開発体制の移り変わり1 (構築時) 初期構築時は強力な助っ人Tの参画によりインフラ、アプリの一部と CI/CDやモニタリングシステムの 構築を実施 Airワーク開発T バックエンド担当 フロントエンド担当

    EC2 バックエンド アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch 助っ人T アプリもインフラもでき る人達 ローンチ後もある程度見据えて CI/CD, モニタリングの仕組みも 構築
  20. Airワーク開発体制(ヒト) AWS(システム) 開発体制の移り変わり2 (ローンチ後しばらく) ローンチ後に助っ人Tが抜け、しばらくは開発Tで全体をまかなおうとした しかしナレッジの継承、引き継ぎがうまくいかずトラブルが出てきだした Airワーク開発T バックエンド担当 フロントエンド担当 EC2

    バックエンド アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch サービスだけでも厳しいのでこ のあたりまで手が回らず エンハンスによってこのあたりも 追加されていき管理するものが 増える
  21. Airワーク開発体制(ヒト) AWS(システム) 開発体制の移り変わり3 (インフラT参画) その後今のかたちに落ち着いた Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当

    EC2 バックエンド アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch インフラ部分のサポート要 因として参画
  22. Airワーク開発体制 開発体制の移り変わりまとめ まとめるとこんな感じ Airワーク開発T バックエンド担当 フロントエンド担当 助っ人T アプリもインフラもでき る人達 Airワーク開発体制

    Airワーク開発T バックエンド担当 フロントエンド担当 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当
  23. Airワーク開発体制 開発体制の移り変わりまとめ Airワーク開発T バックエンド担当 フロントエンド担当 助っ人T アプリもインフラもでき る人達 Airワーク開発体制 Airワーク開発T

    バックエンド担当 フロントエンド担当 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 初期構築時はなんでもTがイ ンフラ構築だけでなく運用見 据えたCI/CDやモニタリング の構築もしてくれた インフラ担当 = 運用/改善が できる人達という認知が生ま れた 構築以外にもCI/CDやモニタ リングの構築もしたし開発Tに 引き継げば運用もうまくいくだ ろう 仕組み化によって運用/改善 も回るという期待が生まれた 初期構築時はローンチに向けて最適な体制を選択 ただ、この時点で長い目で見たときのリスクの種を植えていた
  24. Airワーク開発体制 開発体制の移り変わりまとめ Airワーク開発T バックエンド担当 フロントエンド担当 助っ人T アプリもインフラもでき る人達 Airワーク開発体制 Airワーク開発T

    バックエンド担当 フロントエンド担当 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 ローンチ後にインフラ部分も やるようにしたが、勝手がわ からず、トラブルも増え、開発 Tでインフラ担当するのはとに かく大変である。 という認識になる 1度は開発Tですべてをやることにトライしてみるが、結果インフラ周りは専門の人達に任せるべきと いう認識になる 加えて助っ人Tが残してくれた資 産も引き継いだものの実際運用し ていくとなると分からないことだら けで、維持することだけに手一杯 になる
  25. Airワーク開発体制 開発体制の移り変わりまとめ Airワーク開発T バックエンド担当 フロントエンド担当 助っ人T アプリもインフラもでき る人達 Airワーク開発体制 Airワーク開発T

    バックエンド担当 フロントエンド担当 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 そして今、体制移り変わりによってお互いのチームに対する認識齟齬が生まれていた この構造を解消しない限り運用周りの課題は発生し続ける トラブルを経てインフラT参画 してくれたことにより インフラ + 運用も任せれると いう期待になった 各システムのインフラ支援が メインで能動的な活動は各開 発Tがやるという認識 依頼ベースで対応はするが 全体推進は開発Tという期待
  26. Airワーク開発体制(ヒト) AWS(システム) 実際の不安要素 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 EC2 バックエンド

    アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch アーキ AWSで突発的な障害が出た時に、検知はするものの開発とインフラが別々に調査をしていたり 見てます こういうアプリエラー 出てます 見てます こういうインフラ障害 出てます 障害発生! 協力してみましょう
  27. Airワーク開発体制(ヒト) AWS(システム) 実際の不安要素 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 EC2 バックエンド

    アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch アーキ 問題検知しても体制上どうしても案件優先になり対応が後手にまわってしまう ストレージ利用量が逼迫してい るので対応お願いします 案件で手一杯のため増加対応 でお願いしたいです。。 cronjobの履歴が残っているだ けなので、履歴数を減らしま しょう
  28. Airワーク開発体制(ヒト) AWS(システム) 我々の参画によりやってきたこと Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 EC2 バックエンド

    アプリケーション フロントエンド アプリケーション k8s S3 SES RDS ElastiCache サービス CI/CDシステム EC2 ConcourseCI RDS 監視/ログシステム Datadog ElasticSearch アーキ 構造を理解した上で我々の活動を振り返るとアプリ , インフラという垣根を気にせずサービス全体でも のごとを捉えて改善実践するアプローチだった デプロイ速度改 善 モニタリング改 善 スロークエリ改 善 スケール案検討
  29. 開発T そもそもこれもDevOpsだったのでは? これまでやってきた活動も見方を変えると DevOpsに則った活動だったと解釈 アーキテ クト インフラT 1.システム負荷 モニタリング項目追加 スケール対策検討

    アラート見直し 2.運用負荷 デプロイ改善 テスト環境拡張 3.品質劣化 設計/コードレビュー ..その他発生ベースで適宜 優先度判断 具体案検討 タスク化 適宜対応依頼 運用 課題 目標 利用拡大に耐え れる状態の構築 共通の目標に向 かって協働する
  30. DevOpsの原則である3つの道を考える バリューストリームの理解も気になったが今の状態では なぜ改善するかを理解すること そのうえで改善を根付かせること の2点が重要と判断 1. フローの原則 CI/CDといった仕組みはすでにある 週1回リリースサイクルだがこれが遅いという話は出ていない 2.

    フィードバックの原則 自動テストの仕組みはすでにある モニタリングにやや不備があったが改善済み 3. 継続的な学習と実験の原則 圧倒的にここが不足している 開発作業がメインだったため日常業務の改善をしたり、今の状態や目指すべきものといった 考え方がそもそもない
  31. Airワーク開発体制 「運用連絡モデル」を参考に実践 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 アーキ 開発Tリーダーと相談して安定稼働専任者を建ててもらい、我々がフォローする形で開発 Tの運用力

    向上を測ることに 安定稼働担当 指導 安定稼働担当に ・課題に対する優先度決めと理由 ・対策の具体案検討 ・改善施策の目的言語化 などを考えてもらいレビューやフォローをする 安定稼働という名目で 専任者を2名建てる
  32. 開発T この体制で我々の裏の目標も策定 これまでやってきた活動をベースに体制をチューニング アーキテクト インフラT AWS知識不足 運用スキル不足 .. etc 適宜対応依頼

    目標 利用拡大に耐え れる状態の構築 共通の目標に向 かって協働する 裏目標 自立的に運用/改 善活動ができる状 態の構築 安定稼働担当 指導 課題
  33. ビジョンと理想, 現実のギャップ整理 アーキ まずは運用をしていくうえで自分たちは何のために存在し、何を目指したいのかを言語化 安定稼働担当 指導 ビジョン作成 何のためにいるチーム? どういう状態になりたい? 理想と現実

    のギャップ 発生障害の対応・修正 (恒久含む) に しか手が回っていない 障害対応として 予防 > 早期発見・治 療> 発生障害の対応・修正 (恒久含 む) としたい 現状 理想 レビューやデプロイ, 結合テスト手戻 り等スピードを妨げる要因を認識して いるが、フローの可視化や根本部分 の解消はできていない 課題創出が有識者, アーキ → 安定 稼働T となっており、優先順位付けも 有識者に依存している チーム内で 課題創出、判断、対応の サイクルが回っており、必要に応じて 安定稼働T → 有識者, アーキ への依 頼ルートを取れる 開発者が滞りなく開発作業を実施し、 製造〜リリースまでのリードタイムが 最小化されている環境を維持する 基本品質 の担保 魅力品質 向上 自己組織 化チーム
  34. 残課題を中心に対応方針検討を実施 残課題についても目的を明確に、視野を広く、効果を実感できる形で実施してもらう マニフェ スト フロントエンド バックエンド + アプリレイヤ以外の部分も 徐々に手掛ける 結果を定量的に測るため

    にモニタリングツールの活 用を始める How指向ではなくWhy 指向に バッチ処理による CPU負荷高騰のア ラートが増える アラートを減らせな いか? そもそもこのアラー トは必要なのか? 事象 How Why アーキ 安定稼働担当 指導 この課題についてこのように対 応しようと思います 背景や目的は? その方法以外に選択肢は? 改善結果は見れる?
  35. 開発, インフラTの連携 リーダー陣での連携強化とサービス安定稼働の側面で両チームが定期的に追うべき指標を洗い出 し、共同で確認していく体制を確立 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当

    安定稼働担当 開発T リーダー インフラT リーダー 私 ・課題認識共有 ・優先度すり合わせ ・案件状況共有 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 安定稼働担当 インフラ観点 ・CPU使用率 ・メモリ使用率 ・ストレージ使用率 … etc アプリ観点 ・Webレイテンシ ・エラー率 ・変更失敗率 ・バッチ時間 … etc 1.リーダー陣での連携強化 2.サービス安定稼働に関する共通指標 を策定&共同確認 これらを両チーム共 同で定期確認
  36. 開発, インフラTの連携 結果、最近のモニタリングで問題を早期に発見し対策するという動きもできている Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 安定稼働担当

    開発T リーダー インフラT リーダー 私 ・課題認識共有 ・優先度すり合わせ ・案件状況共有 Airワーク開発体制 Airワーク開発T バックエンド担当 フロントエンド担当 インフラT インフラ担当 安定稼働担当 インフラ観点 ・CPU使用率 ・メモリ使用率 ・ストレージ使用率 … etc アプリ観点 ・Webレイテンシ ・エラー率 ・変更失敗率 ・バッチ時間 … etc 1.リーダー陣での連携強化 2.サービス安定稼働に関する共通指標 を策定&共同確認 これらを両チーム共 同で定期確認 最近これらが跳ねる傾 向を検知し安定稼働Tを 中心に対策中 最近特定のアクセスでこ れらが跳ねる傾向を検 知し安定稼働Tを中心に 対策中
  37. 品質について分析 要求分析 要件定義 基本設計 詳細設計 開発/製造 コードレビュー 単体テスト 結合テスト システムテスト

    受け入れテスト ここはテスターさんが実施 ここでのバグ検知がそもそも 多い(特にUI系) ここは開発者が実施 ここでのテスト粒度が人によってバ ラバラ (人員増加によって従来の緩いルー ルだとムラが出るようになった ) ・開発, テスター間の連携不足によりテストすべき内容に漏れが発生 ・UI系が特に手戻りが多い(上期も多かったが10~12月に更に発生、バグ全体の半分以上 ) の2点が品質、開発フローにおける課題ということが見えてきた テスター、開発者間でのテスト ケースレビューがない
  38. 結果、フロー, フィードバック面でも改善が進んだ 開発フローで発生していた認識齟齬とそれによる手戻りを早期検知 &改修できるように これまで 要件定義 設計 デザイン コーディング 単体テスト

    開発者 デザイナー テスター 結合テスト 開発 テスト 開発者 開発者 開発者 ここの間の連携がで きておらず後工程で の手戻りが多発して いた ここの間の連携ができておらず 後工程(特に結合テスト)での手 戻りが多発していた これから 要件定義 設計 デザイン コーディング 単体テスト 開発者 デザイナー テスター 結合テスト 開発 テスト 開発者 開発者 開発者 ここの間の連携がで きておらず後工程で の手戻りが多発して いた 連携強化によりお互いの 早期FBとそれによるフ ロー改善ができた
  39. 関わり方は参画前の認識になってきた 参画する前はこう考えてた  開発T: 現状こういう状態で、利用拡大に伴ってやばくなりそうな箇所はここです  → 現場に課題認識があり技術難度の高いところを中心にフォロー 参画直後はこうだった  開発T: 利用拡大に伴いどうなるかわからない、、     サーバリソースのどこに響くのかとかよくわからない、、

     → 現場での現状整理ができておらずここから実施が必要  → 直近の対策はできたとして、、今後大丈夫か? 最近はこうなりつつある  開発T: この課題対応にはこうするとよいと考えていますが、見解やアドバイスほしいです  → 課題認識と対応検討を主体的に進め、技術難度の高いところをフォロー
  40. 我々がやってきたことまとめ 1. 事業要望に応えるためにシステム改善に注力した (エンジニアリング的アプローチ) → 改善によるシステム安定化 2. 改善継続には現場の自立が必要と認識してスキル , 考え方の注入をした(ヒト的アプローチ)

    → 超人がいないと成り立たないではなく自己組織化を目指す 3. 1つのチームとして連携できるように共通の指標を立てた (ヒト的アプローチ) → システム安定稼働をチームで守るという意識付け ヒトとエンジニアリングの両軸でアプローチすることでDevOps的な文化を生みだせる! 大事なのはチームとしてどうしていきたいか?を考え、実践していくことです。