タグ付けされた質問 「zfs」

ZFSは、もともとSun Microsystemsによって開発され、CDDLに基づいてライセンスされた最新のファイルシステムおよびボリュームマネージャです。これは、大容量ストレージアレイ、破損防止、スナップショット、クローン、圧縮、重複排除、およびNFSv4 ACLをサポートするコピーオンライトファイルシステムです。ZFSのオープンソースフォークはhttp://open-zfs.org/にあり、ZFSonlinux.org、illumos.org、およびFreeBSD&Mac OS XコミュニティのZFS開発者によってサポートされています。

3
サイズの異なるディスクをパーティション分割して信頼性を高めますか?
ZFSが同じサイズのすべてのディスクを優先することを理解しています。ただし、サイズの異なる2つのディスク(1 TBと1.5 TB)がある場合、ミラーリングではなく、ある程度の冗長性を確保したいと考えています。したがって、私は2つのディスクを5つのパーティションにチョップします。各パーティションは約500GBで、「raidz」プールを作成します... zfsは喜んで義務付けられています。実際にセットアップすると、信頼性が向上しますか?その考えは、ディスクが完全に破壊されず、その一部のみが故障した場合でも、データにアクセスできるということですか?
8 zfs  redundancy 

1
数か月後の極端なZFSの減速
私は汎用サーバーを持っており、メール、DNS、ウェブ、データベース、その他のサービスをいくつかのユーザーに提供しています。 Xeon E3-1275(3.40 GHz、16 GB ECC RAM)を搭載しています。Linuxカーネル4.2.3とZFS-on-Linux 0.6.5.3を実行します。 ディスクレイアウトは、2x Seagate ST32000641AS 2 TBドライブと1x Samsung 840 Pro 256 GB SSDです。 RAID-1ミラーに2つのHDがあり、SSDはキャッシュおよびログデバイスとして機能し、すべてZFSで管理されています。 私が最初にシステムをセットアップしたとき、それは驚くほど高速でした。実際のベンチマークはありません。ただ...高速です。 さて、特にすべてのmaildirを保持するファイルシステムで、極端なスローダウンに気づきました。夜間バックアップを実行すると、わずか46 GBのメールで90分以上かかります。場合によっては、バックアップによって非常に大きな負荷が発生し、システムが最大6時間応答しなくなることがあります。 私はこれらのスローダウン中に実行しましたzpool iostat zroot(私のプールはという名前ですzroot)、100〜200kバイト/秒のオーダーの書き込みを見ました。明らかなIOエラーはありません。ディスクは特にハードに動作しているようには見えませんが、読み取りはほとんど不可能に遅いです。 奇妙なことに、FreeBSDを実行しているSSDではなく、同じ仕様のハードウェアを使用して、別のマシンでまったく同じ経験をしました。数か月間は問題なく動作しましたが、同じように遅くなりました。 私の疑いは次のとおりです。zfs-auto-snapshotを使用して、各ファイルシステムのローリングスナップショットを作成します。15分のスナップショット、1時間ごと、1日ごと、1か月ごとのスナップショットを作成し、それぞれのスナップショットを一定数保持して、最も古いスナップショットを削除します。つまり、時間の経過とともに、各ファイルシステムで数千のスナップショットが作成され、破棄されました。これは、累積的な効果があると考えることができる唯一の進行中のファイルシステムレベルの操作です。私はすべてのスナップショットを破棄しようとしました(ただし、プロセスを実行したままにし、新しいスナップショットを作成しました)、変更がないことに気付きました。 スナップショットを常に作成および破棄することに問題はありますか?私はそれらが非常に価値のあるツールであることを発見し、それらが(ディスク領域を除いて)多かれ少なかれゼロコストであると信じるようになりました。 この問題を引き起こしている可能性のある何か他にありますか? 編集:コマンド出力 の出力zpool list: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 1.81T 282G 1.54T - 22% 15% …

2
ZFSがディスクのダフセクターで何もしないのはなぜですか?
ZFSプールからの読み取り中にI / Oエラーが発生すると、次の2つのことが発生するという印象を受けました。 障害は、関連するデバイスのREADまたはCKSUM統計のいずれかに記録され、プールレベルに向かって上方に伝播します。 冗長データは、要求されたブロックを再構築し、要求されたブロックを呼び出し元に返し、ダフドライブがまだ機能している場合は、ブロックをブロックに再書き込みするために使用されます。または、 読み取りエラーを修正するための冗長データがない場合は、I / Oエラーが返されます。 ミラーセットアップのディスクの1つで不良セクターが発生しているようです。それ自体は驚くべきことではありません。そのようなことが起こり、それがまさに私が冗長性を持っている理由です(正確には、双方向ミラーです)。プールをスクラブするか、特定のディレクトリのファイルを読み取るたびに(どのファイルに問題があるかを正確に特定するためにまだ気にしていません)、次のようにdmesgにポップアップし、明らかにタイムスタンプが異なります。 Nov 1 09:54:26 yeono kernel: [302621.236549] ata6.00: exception Emask 0x0 SAct 0x9c10 SErr 0x0 action 0x0 Nov 1 09:54:26 yeono kernel: [302621.236557] ata6.00: irq_stat 0x40000008 Nov 1 09:54:26 yeono kernel: [302621.236566] ata6.00: failed command: READ FPDMA QUEUED Nov 1 09:54:26 yeono …

2
アレイの空き容量要件
一般的な経験則では、容量の80〜85%を超えて使用しないでください。使用すると、パフォーマンスが大幅に低下し、その他の問題が発生する可能性があります。 8TBのアレイでは、これは約1.6TBの空き容量になるはずです!40TBのアレイには約8TBの空き容量が必要です! これは、より大きな配列での慣習ですか?テーブルに残しているディスク領域が多すぎますか?

1
4Kセクターディスク上のZFS RAIDZ2のオーバーヘッドはどこに行きますか?
まず、正確に10億バイトの16個の空のファイルを作成しました。 for i in {1..16}; do dd if=/dev/zero of=/mnt/temp/block$i bs=1000000 count=1000 &> /dev/null; done 次に、ファイル上にますます大きなRAIDZ2ボリュームを作成し、ashift = 12に4Kセクタードライブをシミュレートするように強制しました。 zpool create tank raidz2 -o ashift=12 /mnt/temp/block1 /mnt/temp/block2... df -B1実際のサイズを確認するために使用して比較しました。 Filesystem 1B-blocks tank 12787777536 私の結果: +-------+-------------+-------------+------------+------------+ | disks | expected | actual | overhead | efficiency | +-------+-------------+-------------+------------+------------+ | 3 | 1000000000 | …

1
/ dev / disk / by-idの下の同じハードドライブのscsiおよびataエントリ
SATAホットスワップバックプレーンを介してUbuntuシステムに接続した4つのベアドライブを使用してZFSプールをセットアップしようとしています。 これらはHitachi SATAドライブです。の内容を一覧表示すると/dev/disk/by-id、ドライブごとに2つのエントリが表示されます。 root@scorpius:/dev/disk/by-id# ls | grep Hitachi ata-Hitachi_HDS5C3030ALA630_MJ1323YNG0ZJ7C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1064C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG190AC ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1DGPC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG0ZJ7C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1064C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG190AC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1DGPC 私がシリアル番号を書き留めたので、これらは同じドライブであることを知っています。このシステムの他のすべてのドライブは、SeagateまたはWDのいずれかです。たとえば、最初のシリアル番号はYNG0ZJ7Cです。 ドライブごとに2つのエントリがあるのはなぜですか?要は、使用するZFSプールを作成するときです。scsi-1またはata-1?
8 linux  zfs  sata  scsi 

2
ZVOLの奇妙なZFSディスク領域使用状況レポート
FreeBSD 10.0-CURRENTホストに100G ZVOLがあり、176Gのディスク容量を使用すると主張しています。 root@storage01:~ # zfs get all zroot/DATA/vtest NAME PROPERTY VALUE SOURCE zroot/DATA/vtest type volume - zroot/DATA/vtest creation Fri May 24 20:44 2013 - zroot/DATA/vtest used 176G - zroot/DATA/vtest available 10.4T - zroot/DATA/vtest referenced 176G - zroot/DATA/vtest compressratio 1.00x - zroot/DATA/vtest reservation none default zroot/DATA/vtest volsize 100G local zroot/DATA/vtest …
8 freebsd  zfs  zvol 

6
FreeBSDを実行しているSuperMicroサーバー上のディスクを特定する
ZPoolに6つのディスクを備えたSuperMicro 2Uサーバーで実行しています。FreeBSDのツールからコマンドを実行して、ドライブキャリアLEDを使用して各ドライブベイを識別したいと思います。これを行う方法はありますか? ドライブがRAIDカードの上で実行されている場合は、RAIDカードユーティリティを使用して各ディスクを識別できますが、私の場合、ハードウェアRAIDはありません。 FreeBSDまたはLinuxでこれを行うツールはありますか?

1
FreeBSDでZFSファイルシステムをNFSv4で共有する方法
FreeBSD 9を使用して、ZFSファイルシステムを作成 zfs create tank/project1 zfs set sharenfs=on tank/project1 ネット上のFreeBSDでNFSv3を設定する方法はたくさんありますが、NFSv4を1つも見つけることができません。 たとえば、この HOWTOでは、(NFSv3)をで再起動するnfsd -u -t -n 4必要があると述べていnfsdますが、私も持っていません。 私がする時 # echo /usr/ports/*/*nfs* /usr/ports/net-mgmt/nfsen /usr/ports/net/nfsshell /usr/ports/net/pcnfsd /usr/ports/net/unfs3 /usr/ports/sysutils/fusefs-chironfs /usr/ports/sysutils/fusefs-funionfs /usr/ports/sysutils/fusefs-unionfs # でインストールできるNFSv4サーバーが表示されませんpkg_add。 質問 NFSv4をインストールしてセットアップして、Linuxホストなどから共有をマウントするにはどうすればよいですか?
8 linux  freebsd  nfs  zfs 

1
AWSのLinuxで大規模で拡張可能な共有ファイルシステムをどのように作成しますか?
単一のファイルシステムとして公開されている、AWSで大規模で拡張可能な共有ストレージを提供するための許容できる/合理的な/最善の方法は何ですか? 現在、1 TBのEBSボリュームを隔週で作成しており、NFSはno_subtree_checkとnohideを使用してエクスポートしています。このセットアップでは、個別のエクスポートがクライアントの単一のマウントの下に表示されます。この配置は適切にスケーリングされません。 私たちが検討したオプション: LVM2とext4。resize2fsが遅すぎる。 LinuxのBtrfs。まだプライムタイムの準備ができていません。 Linux上のZFS。まだプライムタイムの準備ができていない(LLNLが使用しているが) Solaris上のZFS。このコンボの将来は(私にとって)不確実であり、新しいOSが混在している glusterfs。ほとんどは良い話ですが、恐ろしい(そしておそらく古い?)2つの話を聞きました。 理想的なソリューションは、共有、単一のfsビュー、簡単な拡張性、スナップショット、およびレプリケーションを提供します。 アイデアと経験を共有してくれてありがとう。

2
zfsと将来の拡張性
freebsd 9とzfsを使用してサーバーを構築したい。古いハードウェア(8 GB RAMのIntelクワッドコア)を使用していますが、1 TBディスクを2つまたは3つ購入してもかまいません。また、おそらく使用を停止すると思われる2つの1 TBディスクがすでに入っているdlink RAIDサーバーもあるので、それらの2つのハードディスクは、データを移動するとzfsサーバーで使用できるようになります(現在約300 MB)。 raid 1)新しいサーバーに。 これにより、最初に2つまたは3つのディスクが提供され、zfsサーバーを正常にセットアップしてデータをコピーすると、4つまたは5つのディスクに移動できます。 私の質問は、冗長性とストレージスペースを最大限に活用できるようにzfsプールを最適にセットアップし、将来的に2または3以上のドライブが利用可能になったときに移動できるようにすることです。だから私はそれほど速度を気にしません、とにかく私のイーサネット(1GB /秒でも)がシステムの速度を決定する要素になると思います...? 私の現在の考えは、2つの新しいディスクを購入し、ストライピングモードを使用してセットアップすることです。dlink nasからすべてのデータをコピーしたら、それらのドライブの1つを削除し、新しいドライブの1つのミラーにすることでプールに追加します。アレイが再構築されたら、もう1つのドライブをプールに移動して、2番目の新しいドライブをミラーリングします。すべての処理が完了したら、RAID 10とほぼ同等の「ストライプミラー」ができます。 それは可能ですか、それとも設定するより良い方法がありますか? 繰り返しますが、私の優先事項は、最大の冗長性、メンテナンス(古いドライブをより新しい/より大きなドライブに交換し、プール領域全体を増やす)、利用可能なストレージ領域、および速度です。その順序で。
8 freebsd  zfs 


4
FreeNASは企業の準備ができていますか?
私は少し意見が分かれています。 私は会社用のNASを取得することを検討しています。VMwareサーバー用に必要です。 当初のアイデアは、NAS(Netgear ReadyNAS)を購入することでした しかし、コミュニティ(ServerFault)からサーバーからNASを構築し、NextentaStor、Openfiler、FreeNASなどを使用するよう推奨されました。 いくつかの理由でOpenfilerを削除しましたが、NexentastorとFreeNASの間に残っています。 私が抱えている問題は、FreeNASが実稼働環境で信頼できるかどうかです。 FreeNASはVMwareのiSCSIバックエンドになるのに十分ですか?私が最後にFreeNASを使用したのはバージョン0.7でした。 有料版ではなくNexentastorコミュニティを使用します。 どんな洞察も素晴らしいでしょう。
8 zfs  freenas  nexenta 

3
PAM:pam_mkhomedirの前にコマンドを実行しますか?
ユーザーがシステムにログインし、ホームディレクトリがない場合、pam_mkhomedirを使用してユーザーのホームディレクトリを作成します。これは一般的な方法です。pam_mkhomedirの簡単な説明は次のとおりです。 pam_mkhomedir PAMモジュールは、セッションの開始時に存在しない場合、ユーザーのホームディレクトリを作成します。これにより、分散ファイルシステムを使用したり、多数のディレクトリを事前に作成したりせずに、ユーザーが中央データベース(NIS、Kerberos、LDAPなど)に存在できるようになります。スケルトンディレクトリ(通常は/ etc / skel /)は、デフォルトファイルをコピーするために使用され、作成用のumaskも設定します。 ただし、これはZFSを実行しているFreeBSD 8.2システムです。ユーザーごとに1つのZFSファイルシステムが必要なため、最初にZFSコマンドを実行する必要があります。pam_mkhomedirすることができますがmkdir、私たちはのような何かをする必要がありますzfs create /zpool/home/$USER。 ユーザーの最初のログインセッション中にPAMを使用してコマンドを実行できるかどうか、誰か知っていますか?
8 freebsd  zfs  pam 

2
ZFS ARCおよびL2ARCキャッシュには何がありますか?
私は自宅でシンプルなZFSセットアップを行っています。ミラーリングされた4つのディスク、8 GBのRAM、L2ARC用の120 GBのIntel X25-M SSDです。私は走ったzpool add poolname cache cXtXdX後、生成された負荷をし、熱心に実行することにより、温暖化のプロセスを追跡しましたzpool iostat -v mypool。数時間後、L2ARCはいっぱいですが、正確には何がキャッシュされていますか? ARC / L2ARCの内容をのぞいて確認できますか?特定のブロックが複数のファイルシステムにマッピングされることを理解していますが(スナップショット、クローン作成、重複排除のため)、次のような統計をサンプリングしたいと思います。 キャッシュされるブロックのタイプ:メタデータ。iSCSI、データ。等 年齢:各ブロックがL2ARCに存在する期間 どのファイル:一部のコンテンツがキャッシュされているディレクトリ ファイルシステムの内訳:ファイルシステムごとにキャッシュされたGB ブロックの不揮発性コピーの場所(ドライブ/ vdev) zdbやdtraceがjournal de joursになると思いますが、どこから始めればよいか本当にわかりません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.