ZFSプールまたはLVMボリュームグループは、多くのパーティションを利用するためにより信頼性がありますか?


11

新しいファイルサーバーの構成でLVMボリュームグループを使用するかZFSプールを使用するかを決定するとき、何を考慮する必要がありますか?多目的ファイルサーバーの領域に「より良い」選択肢はありますか?この前の質問とは異なり、私はテクノロジーを重ねたくありません。

シナリオ:

  • RHEL / CentOS 6 x64サーバー
  • 多くの利用可能な同一のDASおよびSAN LUN

選択:

私は個人的にLVMに精通しているので、LVMがより良いオプションであるなら、LVMを使用しても問題ありません。ただし、ZFSは非常に有望に見え、新しいテクノロジーを学ぶことは常に良いことです。

かなり大きなストア(複数TB)を異なる部門に共有できるようにしたいので、基盤となるプールマネージャーにZFSまたはLVMを使用する場合は、CIFSとNFSの両方でそれらにアクセスできる必要があります。 ?


のような製品を使用するFreeNASことは可能ですが、さまざまな理由から、「典型的な」Linuxサーバーに展開できる必要があります。


5
要するに、ZFSファイルシステムは行くべき方法です...後でフォローアップします。
ewwhite 14

4
私は数年前からZFSを使用しています。(私の意見では)その賛成で最も説得力のある引数がある、これを(からここでは、データ損失までの平均時間を示します)。とにかく、だからこそraid-z3を実行しています。
エリオットフリッシュ14

FreeNASに関して:これは素晴らしい解決策かもしれませんが、多くのNASのような解決策と同様に、隠されたものがかなりあります(すなわち、各ディスクの先頭にある小さなスワップパーティション...)。獣と遊ぶことを1つか2つ学ぶかもしれませんが、自分が何をしているのかを知っているなら、それはすべて自分でやるべきです。
Ouki 14

@Ouki-別のコンテキストでは、FreeNAS、または同様のものを展開します。このコンテキストでは、次のことはできません。)
ウォーレン

@STW -私はあなたの意見に感謝しながら、あなたは:) SFのコミュニティのように設定メンバーに不同意でボーカルのようである理由を、私は不思議に持っている
ウォーレン

回答:


12

私は両方を使用しますが、ZFSを好みます。Linux上のZFSは私にとって非常に良いものですが、すべての状況で「すべてを修正」するわけではありません。

典型的なサーバーは次のようになります。

(私は通常、ハードウェアRAIDを使用し、主に柔軟なボリュームマネージャーとしてZFSを使用します)

  • 基盤となるディスクで構成される論理ボリュームを備えたハードウェアRAID。そのアレイは、小さなOSボリューム(ブロックデバイスとして表示)に分割され、パーティション分割されます(/、/ usr、/ varなど)。
  • 残りのスペースは、ZFS zpoolとして使用される別のブロックデバイスを提供します。
Smart Array P420i in Slot 0 (Embedded)    (sn: 001438029619AC0)

   array A (SAS, Unused Space: 1238353  MB)

      logicaldrive 1 (72.0 GB, RAID 1+0, OK)
      logicaldrive 2 (800.0 GB, RAID 1+0, OK)

      physicaldrive 1I:2:1 (port 1I:box 2:bay 1, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:2 (port 1I:box 2:bay 2, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:3 (port 1I:box 2:bay 3, SAS, 900.1 GB, OK)
      physicaldrive 1I:2:4 (port 1I:box 2:bay 4, SAS, 900.1 GB, OK)

次に、zpoolを取得し、必要に応じて追加のZFSファイルシステム(またはマウントポイント)とzvolを作成します。

# zpool list -v vol1
NAME   SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
vol1   796G   245G   551G    30%  1.00x  ONLINE  -
  wwn-0x600508b1001c4d9ea960806c1becebeb   796G   245G   551G         -

そして、ファイルシステム...

# zfs list
NAME                USED  AVAIL  REFER  MOUNTPOINT
vol1                245G   539G   136K  /vol1
vol1/images         245G   539G   245G  /images
vol1/mdmarra        100G   539G   100G  /growlr_pix

したがって、データパーティションにZFSを使用すると、データのプールに対処し、クォータを設定し、マウントポイントの粒度で属性を管理できるため、非常に便利です。LVMは依然としてファイルシステムツールを扱う必要があり、もう少し厳格です。


6
RAID上でZFSを使用しては落胆し、一部はZFSのメリットを敗北さ:en.wikipedia.org/wiki/ZFS#ZFS_and_hardware_RAID
STW

8
上記の例は、ZFSの利点を完全に損なっているようです。zpoolで4つの物理ディスクを単一のRAID論理ディスクとして使用すると、ZFSのデータの整合性が得られないことを意味します。RAIDコントローラーはZFSがディスクの状態を監視および応答することを防ぎます。セットアップは、ZFSではなく、LVMの理想的な候補です。クォータ、属性(Linux上のZFSではサポートされていません)、および圧縮などの機能は、ZFSなしで使用できます。
STW 14年

2
@STWあなたは、私の環境で何が機能するか、または機能しないかを私に知らせる立場にありません。別の場所に持って行ってください。
ewwhite 14年

4
@ewwhiteこのセットアップを使用している人は壊滅的なデータ損失のリスクがあることに注意してください。ボリューム管理にZFSのみを使用したい場合は問題ありませんが、ZFSの機能のごく一部にすぎず、安全性が失われます。
STW 14年

6
RAID10を実行していて、zpoolをに設定している場合は、比較的安全ですcopies=2。ただし、ディスクまたはコントローラーに障害が発生した場合、同等のセットアップを純粋にZFSで行った場合よりも、プールが完全に失われる可能性が高くなります。
STW
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.