Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ICTSC2020 Ceph

onokatio
March 06, 2021

ICTSC2020 Ceph

ICTSC2020 LT会で話したCephの話です

onokatio

March 06, 2021
Tweet

Other Decks in Technology

Transcript

  1. Cephとは - 分散ストレージ • データが分散される ◦ (機材があれば)いくらでもスケールできる • データが複製される ◦

    どこかで壊れるor無くなってもデータが消えくい • 単一障害点をなくしやすい ◦ コントロールプレーンもデータプレーンも
  2. Cephとは - レプリカの話 • レプリカ = 重複度 • レプリカサイズ3ならデータが3重に保存される ◦

    ただし使用ストレージ容量も3倍 ◦ 書き込み実質速度は3倍 ◦ (今回はWritebackなので実質1倍)
  3. Cephとは - SPOFが居ない • Cephは、Single Point Of Failure(単一障害点)ができにくい仕組 みになっています。 ◦

    データプレーン: レプリカ ◦ コントロールプレーン: CRUSHアルゴリズム
  4. humstackがBSをCeph RBDに置く • humstack(仮想化基盤) がCephにブロックストレージを置ける ように改良 by t-inagaki ↓ •

    結果的に一つのVM作成・起動が数分程度に! ◦ コンピュートノード間のコピーが要らなくなった ◦ ただしレプリカ=1なので、分散されているだけで耐障害性 の旨みはない
  5. ところで トラコンのVMの数について • 総VM数: 20~30台程度 • チーム数: 22 • 1VM

    5GBぐらい 20 〜 30 * 22 *5 = 2 〜 3TB → レプリカサイズを3にすると、9TB超になる → SSD 6TBを超えてしまう