Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Rook-Cephでいろいろベンチとってみる
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
Takuya Utsunomiya
March 27, 2020
Technology
2
6.4k
Rook-Cephでいろいろベンチとってみる
Rook-CephでいろいろIO測ってみました。
Takuya Utsunomiya
March 27, 2020
Tweet
Share
More Decks by Takuya Utsunomiya
See All by Takuya Utsunomiya
OpenShift Virtualizationのストレージ、しゃべりたいだけしゃべる / ocpv-storage
tutsunom
0
820
VMをPodで起動するKubeVirtの真髄 / KubeVirt
tutsunom
1
9.4k
オブジェクトストレージゲートウェイ:NooBaa / Object Storage Gateway NooBaa
tutsunom
1
1.1k
Multi-Cloud Gatewayでデータを統治せよ!/ Data Federation with MCG
tutsunom
1
1.4k
運用者にやさしいOpenShift / OpenShift is operator-friendly
tutsunom
0
1k
OpenShiftのクラスターバックアップリストア / OpenShift Cluster Backup Restore
tutsunom
2
2.4k
COSI (Container Object Storage Interface) で広がる永続ストレージの世界 / CNDT2021 COSI
tutsunom
0
1.7k
このろくでもない、すばらしきストレージの世界。/storage is brilliant
tutsunom
1
1k
Kasten K10でBackup&Restore / Kasten K10 Backup Restore
tutsunom
1
1.3k
Other Decks in Technology
See All in Technology
決済サービスを支えるElastic Cloud - Elastic Cloudの導入と推進、決済サービスのObservability
suzukij
2
590
僕、S3 シンプルって名前だけど全然シンプルじゃありません よろしくお願いします
yama3133
1
190
モブプログラミング再入門 ー 基本から見直す、AI時代のチーム開発の選択肢 ー / A Re-introduction of Mob Programming
takaking22
5
1.3k
AWS DevOps Agent vs SRE俺 / AWS DevOps Agent vs me, the SRE
sms_tech
3
530
ナレッジワーク IT情報系キャリア研究セッション資料(情報処理学会 第88回全国大会 )
kworkdev
PRO
0
160
[JAWSDAYS2026]Who is responsible for IAM
mizukibbb
0
380
わたしがセキュアにAWSを使えるわけないじゃん、ムリムリ!(※ムリじゃなかった!?)
cmusudakeisuke
1
500
「Blue Team Labs Online」入門 - みんなで挑むログ解析バトル
v_avenger
0
150
JAWSDAYS2026_A-6_現場SEが語る 回せるセキュリティ運用~設計で可視化、AIで加速する「楽に回る」運用設計のコツ~
shoki_hata
0
3k
kintone開発のプラットフォームエンジニアの紹介
cybozuinsideout
PRO
0
860
プロジェクトマネジメントをチームに宿す -ゼロからはじめるチームプロジェクトマネジメントは活動1年未満のチームの教科書です- / 20260304 Shigeki Morizane
shift_evolve
PRO
1
250
JAWS FESTA 2025でリリースしたほぼリアルタイム文字起こし/翻訳機能の構成について
naoki8408
1
280
Featured
See All Featured
A designer walks into a library…
pauljervisheath
210
24k
Introduction to Domain-Driven Design and Collaborative software design
baasie
1
630
The #1 spot is gone: here's how to win anyway
tamaranovitovic
2
980
How to Ace a Technical Interview
jacobian
281
24k
The World Runs on Bad Software
bkeepers
PRO
72
12k
Building a Scalable Design System with Sketch
lauravandoore
463
34k
Are puppies a ranking factor?
jonoalderson
1
3.1k
Why Mistakes Are the Best Teachers: Turning Failure into a Pathway for Growth
auna
0
78
The Illustrated Children's Guide to Kubernetes
chrisshort
51
52k
Being A Developer After 40
akosma
91
590k
Google's AI Overviews - The New Search
badams
0
930
XXLCSS - How to scale CSS and keep your sanity
sugarenia
249
1.3M
Transcript
で いろいろベンチとってみる Takuya Utsunomiya Storage Solution Architect, Red Hat K.K.
apiVersion: apiextentions.k8s.io/v1beta1 kind: CustomResourceDefinition metadata: name: 宇都宮 卓也 spec: group:
レッドハット株式会社 role: ストレージソリューションアーキテクト born: 大阪 version: 38歳 favorites: technology: ストレージ hobby: [“野球好き”, “プロレス好き”,”将棋好き”] drink: [“ビール”, “ワイン”] @japan_rook Japan Rook https://rook.connpass.com/ 一部執筆 してます #japanrook 2
で 計測してみる
モチベーション • IO測るの楽しいから • バックエンドのストレージ直で使うのと Rook-Cephを挟むのとでどれくらい変わるかみたい • Cephの構成変えることでどれくらい変わるのか見たい • IO測るの楽しいから
◦ ほんとだよ? なんでIO計測とかするの? 4
環境 • k8s 1.16 on AWS • 3 master +
3 worker ◦ master : m5.xlarge (4vCPU, 16Gi RAM) ◦ worker : m5.4xlarge (16vCPU, 64Gi RAM) • Rook-Cephはworkerへ • Rook 1.2.7, Ceph 14.2.8 ◦ 最新の組み合わせ 5
遊びかた • FIO 3.13 ◦ Kubestoneのfioを使う ◦ Fio Custom Resourceが便利
• fioのPodから100GBのPVマウント(xfs)してIOかける • 4K random read, 4K random writeでIOPSとlatencyをみる • 他のFioのオプションは ----> ◦ 割と適当に… 6 [global] direct=1 size=1G ioengine=libaio overwrite=1 runtime=120 ramp_time=10 startdelay=10 time_based [rw-64] rw=randwrite directory=/tmp bs=4k iodepth=64 [rr-64] rw=randread directory=/tmp bs=4k iodepth=64 ...
何を測るか • 素のEBS(gp2) vs Rook-Ceph 3x replica RBD • Cephクラスタのosd数
◦ 3 osd vs 12 osd • レプリカ数 ◦ 3x replica RBD vs 2x replica RBD 7
None
補足説明 • イメージはこんな感じ ----> • gp2は1TB未満だと3,000IOPSが天井 • 事前の予想 「readは互角くらい」 「writeは純粋にEBSの方が3倍はやい」
9 node EBS node EBS node EBS osd osd osd RBD 3x replica EBS raw EBS(gp2)
結果 • ReadはRook-Cephの方がIOPSもlatencyも断然はやい ◦ 全osdからreadできるから3,000IOPS以上出せる • WriteはEBSの方がはやい。けど3倍もいかない。 ◦ 三重書きのオーバーヘッド ◦
とは言え負荷が高くなって天井に当たると変わらない 10 結論 : 負荷が低い時のwriteは結構違う。 個人的にはreadが強いRook-Cephの方が役に立つ気がする。
None
補足説明 • イメージはこんな感じ ----> • 合計容量は同じになるようにする ◦ 3 osd …
600Gi x 3 ◦ 12 osd … 150Gi x 12 • 事前の予想 「OSDの数が多い方がreadもwriteも圧倒的に はやいはず」 12 node EBS node EBS node EBS osd osd osd RBD node node node RBD 3x replica EBSEBSEBSEBS EBSEBSEBSEBS EBSEBSEBSEBS osd osd osd osd osd osd osd osd osd osd osd osd 3x replica
結果 • やっぱりosdが多いほうがはやい ◦ 負荷が高いほうが違いがはっきりする • osdの容量を増やすよりScale-Outする方が断然おすすめ 13 結論 :
なにはともあれosdが多い方が正義。
None
補足説明 • イメージはこんな感じ ----> • Cephは3x replicaが主流だけど2x replicaもで きる。もちろんnodeをまたいで複製する。 •
利用可能容量は増えるけど、二重障害で data lossになるリスクがある。 • 事前の予想 「readはどちらも同じくらい」 「writeは2x replicaの方がはやい」 15 node node node RBD 2x replica EBSEBSEBSEBS EBSEBSEBSEBS EBSEBSEBSEBS osd osd osd osd osd osd osd osd osd osd osd osd node node node RBD 3x replica EBSEBSEBSEBS EBSEBSEBSEBS EBSEBSEBSEBS osd osd osd osd osd osd osd osd osd osd osd osd
結果 • Readは3xの方がちょっとはやい ◦ 2xの方がprimary osd偏りやすい?運ゲー? ◦ pg数を増やせば同じくらいになる? • Writeは2xの方がはやい
◦ さすがに二重書きの方がオーバーヘッド少ない 16 結論 : writeは結構変わる。 冗長性を取るか、write速い&少ない容量消費を取るか。
まとめ どうだった? 17 • テストケースが少ないけれど大まかな傾向は見えた。 • パブリッククラウドみたいにストレージに QoSをかけられている環境では Rook-Cephは限界突 破する手段になる。
• とにかくosdはたくさんあるに越したことない。 • Write intensiveな用途では2x replicaも一つの手。 • 12osdにするとなかなか4x3で分散してくれなくて困った。 TopologySpreadConstraintsサ ポートが待たれる。 • やっぱりIO測るのは楽しい。
18