cephはハードウェアRAIDアレイ(LUN)をOSDドライブとして処理できますか?


8

私はcephにかなり慣れていないので、cephがハードウェアレベルのRAID HBAをサポートしているかどうかを調べます。

悲しいことに、情報を見つけることができませんでした。私が見つけたのは、OSDにはプレーンディスクを使用することをお勧めすることです。しかし、これにより、PCIe、ディスクのインターフェイスの帯域幅が高くなり、CPUの要件が非常に高くなります。ハードウェアRAIDコントローラーはすでにこれらの要件を解決しており、PCIe、CPU、その他のリソースを消費することなく、セットアップに基づいて高い冗長性を提供します。

したがって、私が望むセットアップは、必要なRAIDレベルが何であれ、コントローラレベル(RAID 5、RAID 6)でディスクの冗長性を処理するローカルRAIDコントローラを持つことです。cephを使用してホスト、シャーシ、ラック、行、データセンター、またはCRUSHで可能なまたは計画可能なものの間でより高いレベルのレプリケーションを実行したいRAID LUNの上に

そのセットアップでの経験はありますか?

推奨設定ですか?

このハードウェアRAID統合に関する詳細なドキュメントはありますか?

回答:


7

するべきだという意味ではありません。RAID LUNをCephにマッピングすることは可能ですが、抽象化のレイヤーを1つ追加して、Ceph機能の少なくとも一部を役に立たないようにレンダリングします。

メーリングリストの同様のスレッド:

http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-September/021159.html


1
「Ceph機能の少なくとも一部を役に立たないようにレンダリングする」ことについてもう少し詳しく説明してもらえますか?ポイントを取得しないでください
拍手

1
Cephの全体的なアイデア...はい、主要なアイデアの1つです。RAID LUNである「ストレージのアイランド」の管理を回避することです。
BaronSamedi1958

0

しかし、これにより、PCIe、ディスクのインターフェイスの帯域幅が高くなり、CPUの要件が非常に高くなります。

実際のところ、多くのストレージワークロードは、最新の汎用CPUと相互接続で適切に処理されます。

はい、RAIDコントローラーは、1つのシャーシ内の少数のディスクで冗長性を処理します。しかし、Cephのようなすでに冗長なマルチノード分散ストレージソリューションを実行する場合、それはコストと複雑さです。Cephがすでに複数のコピーを持っているのに、なぜ物理ディスクをミラーリングする必要があるのですか?

このようなソリューションの構成要素は、単なるディスクの集まりです。以下のようなオープン・コンピューティングストレージの オープンボールト。エンクロージャー内の30スピンドル。数十個のCPUコアの計算ノードに接続されています。スケールアウトに必要な数のノードを追加します。スループットを最大化したい場合は、その計算をCeph専用にしておくことができます。


ハードウェアRAIDベンチマークと比較して、実際のCPU、メモリ、ディスクベンチマークの事実はありますか?ハードウェアRAIDアレイを使用すると、ハードウェアコントローラーが処理するため、CPUとメモリの要件が低くなります。
Cilap

私はしません。とにかくあなたは本当にあなた自身のベンチマークをしたいと思うでしょう。CPUは1秒あたり数十億のサイクルを実行し、インターコネクト(PCIe)は1秒あたり数十億の転送を実行することに注意してください。RAIDコントローラーは自由に使用できます。分散ストレージノードでは必要ないようです。
John Mahowald、2018年

-1

推奨されるセットアップは、単一のディスク、または最終的にはRAID-1ペアのディスクを使用することです。

単一のSASコントローラー(またはJBODモードのRAIDコントローラー)は、問題なく数百のディスクを駆動できます。

非常に大きなアレイを使用すると、単一点障害と「ホットポイント」を回避するというCEPHの本来の目的が損なわれます。また、実際には冗長性が損なわれます。

36台のディスクサーバーシャ​​ーシ(通常のSupermicroのようなハードウェア)を使用して、8 TBドライブを使用して1 PB CEPHクラスターを構築するとします。ストレージ容量と信頼性の観点から、RAIDがある場合とない場合のセットアップを比較してみましょう。

  • RAID-6では、5つのシャーシ(および10のOSD)が必要です。

    • 各シャーシには2 18ディスクRAIDアレイがあります。
    • 利用可能なストレージは1024 TBになります。
    • 複数のディスクがクラッシュした場合は、256 TBを再構築する必要があります。
  • CEPHと5つのシャーシを使用すると、180のOSDを使用できます。

    • 利用可能な容量はわずかに優れています(イレージャーコーディングを使用):1152 TB
    • 複数のディスクがクラッシュした場合は、故障したディスクの数のみを再構築する必要があります(サーバー全体でない限り、常に256 TB未満になります)。

Cephの要件を取得していますが、それでも1つの主要な質問には答えられません。36ドライブシャーシの要件は何ですか?Afaikでは、そのためのセフの説明から36コアが必要です。また、あなたの例ではどのような構成を提案しますか?レプリケーションの取り組みとは何ですか?そのベンチマークは何ですか?
cilap

忘れた。Afaikの設定では、管理のために、より多くのインスタンスまたはさらに多くのサーバーが必要です。
cilap

@cilapは実際に必要なパフォーマンスに依存します。通常、OSDごとに1コアは必要ありません。コアの約半分を使用すれば十分です。消失符号化のパフォーマンスは、完全な複製よりも劣ります。
wazoox

どちらにしても、MDSについては触れませんでした。クラスターの料金に応じて、ストレージノードをMDSおよびMONサーバーとして使用できます。
wazoox
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.