Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Rook/Cephストレージシステムを開発しながらupstream OSSに成果を還元してきた取り組み

Rook/Cephストレージシステムを開発しながらupstream OSSに成果を還元してきた取り組み

Cloud Native Days Tokyo 2022の発表スライドです。
https://event.cloudnativedays.jp/cndt2022/talks/1525

Satoru Takeuchi
PRO

November 21, 2022
Tweet

More Decks by Satoru Takeuchi

Other Decks in Technology

Transcript

  1. Rook/Cephストレージシステムを開発しながら
    upstream OSSに成果を還元してきた取り組み
    Nov. 21st, 2022
    Cybozu, Inc.
    Satoru Takeuchi
    1

    View Slide

  2. 今日伝えること
    ▌サイボウズがOSSベースのストレージシス
    テムを開発の延長としてupstreamに還元し
    てきた経験
    ▌成果の還元で得られたOSSコミュニティと
    のつきあいかたのベストプラクティス
    2

    View Slide

  3. もくじ
    3
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  4. もくじ
    4
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  5. サイボウズ
    ▌様々なグループウェアを提供している
    ⚫kintone, Garoonなどなど
    ▌提供形態
    ⚫クラウドサービス(今日の主題はこちら)
    ⚫一部パッケージ製品もある
    5

    View Slide

  6. サイボウズのインフラ
    ▌OSSベースのオンプレシステムを自前運用
    ⚫有事に自ら即座に詳細調査や修正提供したい
    ▌現行インフラの限界が見えてきたので新インフラを
    開発中
    ▌新インフラはK8sクラスタで、ストレージシステム
    にはRook/Cephを使用
    ⚫Ceph: OSSの分散ストレージ
    ⚫Rook: K8s上で動くCephのオーケストレーション
    6

    View Slide

  7. Cephのアーキテクチャ
    7
    アプリ
    ストレージプール
    Cephクラスタ
    node
    disk disk
    node
    disk disk
    node
    disk disk

    ブロックデバイス オブジェクトストレージ
    OSD OSD OSD OSD OSD OSD
    ファイルシステム

    View Slide

  8. Rookのアーキテクチャ
    8
    Rook
    ストレージプール
    Cephクラスタ
    node
    disk disk
    node
    disk disk
    node
    disk disk

    ブロックデバイス オブジェクトストレージ
    アプリ
    OSD OSD OSD OSD OSD OSD
    PV PV PV PV PV PV
    PV
    PVC Object Bucket Claim(OBC)
    Object Bucket(OB)
    PVC
    PVC
    PVC
    PVC
    ファイルシステム
    PV
    PVC
    PVC
    PVC

    View Slide

  9. Rook/Cephクラスタの完成予想図
    9
    K8sクラスタ リモート
    K8sクラスタ
    * 左図と
    同様の構成
    レプリケーション
    HDD Rook/Cephクラスタ SSD Rook/Cephクラスタ
    アプリ アプリ
    オブジェクト
    ストレージ
    ブロック
    ストレージ
    HDD
    node node SSD
    HDD
    HDD SSD
    NVMe SSD
    バック
    アップ

    View Slide

  10. もくじ
    10
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  11. 基本的な開発の流れ
    ▌以下の繰り返し
    1. VM上に構築した仮想DCを使って開発
    2. 開発用オンプレDCにdeploy
    3. 本番オンプレDCへのdeploy
    ▌問題が見つかれば可能な限りupstreamで修正
    ⚫成果がすべてのupstream Rook/Cephユーザのためになる
    ⚫手元だけで修正するとメンテが大変
    11

    View Slide

  12. 使用するコンテナ
    ▌Upstream OSSの最新版をもとに独自ビルドしたもの
    ▌独自パッチを当てたコンテナを運用することもある
    ⚫重要な修正がupstreamにマージされていない
    ⚫マージされたが新版がリリースされていない
    12

    View Slide

  13. もくじ
    13
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  14. 問題1: OSDが作れない!
    1. SSD Rook/CephクラスタはOSDをLVM上に作る
    2. RookがOSD on LVMをサポートしていなかった
    3. Upstream Rookに機能追加して解決
    14

    View Slide

  15. 問題2: OSDが壊れる!
    1. ノード再起動時にOSDが壊れる問題が多発
    2. RookにOSD操作の排他制御漏れがあった
    3. Upstream Rookを修正して解決
    15

    View Slide

  16. 問題3: OSDが作れない!(その2)
    1. OSDを増やそうとすると稀に作成に失敗。テストにも
    支障が出ていた
    2. Upstream Cephのissue trackerに報告
    3. Upstream Cephを修正してもらった
    16

    View Slide

  17. 問題4: オブジェクトストレージが動かない!
    1. 突然オブジェクトストレージが応答しなくなった
    2. オブジェクト数の増加時にサービスが長時間停止する
    バグがあった
    3. Upstream Rookを修正して解決
    17

    View Slide

  18. 貢献が認められRookのメンテナに就任
    ▌プロジェクトの意思決定にかかわれる
    ▌KubeConのメンテナセッションで登壇できる
    ▌メンテナのおしごと
    ⚫リリース作業、ドキュメント改善、テスト改善
    ⚫社外の人が作ったIssue対応,PRレビュー
    ⚫サイボウズに直接関係ないものも多い
    18

    View Slide

  19. OSS開発業務を支える会社のポリシー
    ▌OSSポリシーを定めている
    ⚫https://cybozu-oss-policy.readthedocs.io/ja/latest/
    ▌ポリシーを定める目的 (前文より抜粋)
    ⚫当社及び従業員がOSS関連活動を過大な負担なく行える
    よう支援すること
    ⚫当社がオープンソースコミュニティで良き一員であるた
    めに必要な規定を定めること
    19

    View Slide

  20. もくじ
    20
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  21. Cephについて浮かんだ疑問
    ▌なぜサイボウズでは頻繁にOSDの作成失敗や再
    起動時にOSDが破れるのか?
    ⚫前述したもの以外にもいくつかの類似バグを検出
    ▌なぜupstreamのテストで検出されなかったか
    ▌手元のデータとupstreamのテスト履歴を分析
    することに
    21

    View Slide

  22. 分析の結果わかったこと
    22
    ▌サイボウズの開発スタイルではOSDを再起動す
    る頻度がupstreamのテストよりもはるかに高い
    ⚫UpstreamのテストでOSD再起動の負荷試験をすればバグ検
    出率が上がるかも
    ▌ほとんどの問題はHDD上で検出していた
    ⚫UpstreamのテストでHDDを使っていない疑いがある
    ⚫もしそうならHDDを使うようにするとよいのでは

    View Slide

  23. Upstream Cephへのはたらきかけ
    23
    ▌Ceph Virtualというイベントで問題提起
    ⚫テストの改善を提案
    ▌今後はMLなどで議論継続

    View Slide

  24. もくじ
    24
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  25. upstream OSS最新情報チェック
    25
    ▌RookとCephの動向を毎日全てチェック
    ⚫ML, issue tracker, GitHub, slack…
    ▌目的
    ⚫深刻なバグの早期発見
    ⚫問題に遭遇する前にワークアラウンド実施
    ⚫暫定的に自前パッチ適用&リリース版へバックポート

    View Slide

  26. 例1: オブジェクトストレージのデータロスト
    26
    1. Upstream Cephにオブジェクトストレージのデータ
    ロスト問題の修正PRが投稿された
    ⚫オブジェクトのPUT時に特定のタイミングでネットワークが切れると
    オブジェクトがロスト
    2. mainマージ後にバックポートPR作成
    ⚫現在マージ待ち状態

    View Slide

  27. 例2: オブジェクトストレージの性能問題
    1. 開発用クラスタでオブジェクトストレージの
    性能劣化が起きていた
    2. この問題を解決しそうなPRがCephのmain
    branchに取り込まれた
    3. 安定版にバックポートしたパッチを当てたサ
    イボウズ独自コンテナにアップグレード
    4. 性能改善!
    27

    View Slide

  28. ところが…
    4. クラスタが異常を報告しはじめる
    5. データが一部壊れる
    ⚫この後upstream Cephの安定版リリース時のテストで性能
    改善PRのバグが検出された
    6. 残ったデータの退避、及びバグ修正後の
    PRを適用した開発用クラスタを再作成
    28

    View Slide

  29. 原因
    ▌性能改善PRは、ある程度以上古いバージョンで
    作ったOSDのデータをうまく扱えなかった
    ▌条件に合うOSDが開発用クラスタに存在した
    ▌サイボウズではこのようなケースをテストして
    いなかった
    29

    View Slide

  30. PRマージ前に検出されなかった理由
    ▌Upstreamのテストにはupgrade suiteがある
    ⚫古いバージョンのCephでOSDを作ってから最新版
    にアップグレード
    ▌しかし個々のPRのテストではupgradeテストは
    動かないことが判明
    30

    View Slide

  31. Cephコンテナのアップグレードポリシーの変更
    ▌古い形式のOSDを考慮したテストを追加
    ▌CephのアップグレードでOSDの形式が変われば、既
    存の古いOSDは可能な限り全て最新版で作り直す
    ▌Upstreamのテストで流す全テストをローカル環境で
    流せるようにする(継続中)
    ⚫これができるまで自前パッチを当てる運用は禁止
    31

    View Slide

  32. Rook/Cephクラスタ開発の進捗
    32
    K8sクラスタ
    レプリケーション
    Rook/CephクラスタA Rook/CephクラスタB
    オブジェクト
    ストレージ
    ブロック
    ストレージ
    現行インフラ
    リモート
    K8sクラスタ
    * 左図と
    同様の構成
    HDD
    node node SSD
    HDD
    HDD SSD
    NVMe SSD
    一部アプリ
    バック
    アップ
    アプリ アプリ

    View Slide

  33. 人材育成もやってます
    ▌当初upstream対応は一人が専任に近い形
    でやっていて、SPOFになっていた
    ▌現在できる人を増やしつつある
    ⚫upstream OSSチェックは2人体制
    ⚫Upstream OSS関連作業は慣れている人と慣れてい
    ない人がペアになってノウハウを伝達
    33

    View Slide

  34. もくじ
    34
    ▌サイボウズとサイボウズのインフラ
    ▌これまでの開発&OSS貢献実績
    ⚫検証中に見つけたRook/Cephの機能追加、バグ修正
    ⚫upstream Cephのテスト改善提案
    ⚫Upstream OSS最新情報チェック
    ▌OSSコミュニティとつきあうベストプラクティス

    View Slide

  35. 基本的な考え方
    ▌OSSへの貢献を特別なものと捉えない
    ▌OSSを使っていれば自然と貢献に繋げられる
    1. 自社システムの課題を見つける
    2. 課題をOSSコミュニティに共有
    3. コミュニティ全体の利益になるよう一緒に解決
    ▌企業同士の協業に近い(同じではない)
    35

    View Slide

  36. はじめの一歩
    ▌簡単なバグ報告/修正から始める
    ⚫ドキュメント修正やテスト追加もアリ
    ▌具体的にどうするか
    ⚫貢献方法が書いている公式ドキュメントを見る
    ⚫GitHubなどを見て真似する
    ⚫経験がある人に助けてもらう
    36

    View Slide

  37. 最初から肯定的な反応を期待しない
    ▌否定的な反応は注目されているサイン
    ⚫落としどころを見つけるために議論を重ねる
    ⚫無理筋なときは引き下がる。無理強いは嫌われる
    ▌無視が一番困る
    ⚫単に忘れられているだけでpingを打つと反応があることも
    ⚫説明しなおせば相手してもらえることも
    ⚫ × 「これが直らないと弊社が困るんです」
    ⚫ 〇 「これはみんながハマりうる問題です」
    37

    View Slide

  38. 押さえておきたいこと
    ▌どこでコミュニケーションをとればいいか
    ▌Main branchやリリース版へのマージ条件
    ▌リリースサイクル
    ▌キーマンは誰か
    38

    View Slide

  39. 会社のサポートがあるとよい
    ▌OSSへの理解があるとうれしい
    ⚫自社のスケジュール通りには進まない
    ⚫自社の利益に直結しないタスクをすることも
    ⚫ ポリシーとして明文化されているとよい
    ▌Open Source Program Office(OSPO)があると楽
    ⚫ライセンスの使用可否の判断、知見蓄積
    ⚫OSSコミュニティとのやりとりのアドバイス
    39

    View Slide

  40. まとめ
    ▌サイボウズはRook/Cephクラスタ開発の一環
    としてupstream OSSに成果を還元してきた
    ▌この結果、OSSとのつきあいかたについての
    ノウハウを蓄積した
    ▌これからもこの方法で開発を進める
    ▌一緒に働いてくれる仲間を募集中!
    40

    View Slide

  41. That’s all, thank you!
    41

    View Slide