タグ付けされた質問 「zfs」

ZFSは、もともとSun Microsystemsによって開発され、CDDLに基づいてライセンスされた最新のファイルシステムおよびボリュームマネージャです。これは、大容量ストレージアレイ、破損防止、スナップショット、クローン、圧縮、重複排除、およびNFSv4 ACLをサポートするコピーオンライトファイルシステムです。ZFSのオープンソースフォークはhttp://open-zfs.org/にあり、ZFSonlinux.org、illumos.org、およびFreeBSD&Mac OS XコミュニティのZFS開発者によってサポートされています。

1
ZFSプールまたはLVMボリュームグループは、多くのパーティションを利用するためにより信頼性がありますか?
新しいファイルサーバーの構成でLVMボリュームグループを使用するかZFSプールを使用するかを決定するとき、何を考慮する必要がありますか?多目的ファイルサーバーの領域に「より良い」選択肢はありますか?この前の質問とは異なり、私はテクノロジーを重ねたくありません。 シナリオ: RHEL / CentOS 6 x64サーバー 多くの利用可能な同一のDASおよびSAN LUN 選択: 私は個人的にLVMに精通しているので、LVMがより良いオプションであるなら、LVMを使用しても問題ありません。ただし、ZFSは非常に有望に見え、新しいテクノロジーを学ぶことは常に良いことです。 かなり大きなストア(複数TB)を異なる部門に共有できるようにしたいので、基盤となるプールマネージャーにZFSまたはLVMを使用する場合は、CIFSとNFSの両方でそれらにアクセスできる必要があります。 ? のような製品を使用するFreeNASことは可能ですが、さまざまな理由から、「典型的な」Linuxサーバーに展開できる必要があります。
11 linux  lvm  partition  zfs 

2
コンシューマクラスのハードディスクはzfsで問題ありませんか?
最近、HP DL380 G6という新しいサーバーを購入しました。ストックスマートアレイp410コントローラーをLSI 9211-8iに置き換えました。 私の計画では、同じベアメタルで実行されるXENの基盤となるストレージとしてZFSを使用します。 スマートアレイコントローラーでSATAディスクを使用できると言われましたが、コンシューマードライブにはTLER、CCTL、およびERCがないため、お勧めしません。これは事実ですか? LSIコントローラーをJBOD(RAIDパススルーモード)で使用すると、使用するディスクの種類がスマートアレイコントローラーの場合と同じくらい大きな影響を与えるかどうか疑問に思いました。 仮想化のために書き込みキャッシュを使用しないRAIDシステムを使用しようとすると、パフォーマンスが低下することを認識しています。しかし、私はZFSにSSDを追加することを考えていました。それは違いを生むでしょうか? ZFSの使用に夢中になっているのは、重複除去と圧縮のためです。スマートアレイコントローラーがこれらの機能を実行できるとは思いません。

4
ZFSホストでVMを実行するとパフォーマンスにどのような影響がありますか?
LinuxでZFSを使用して、Debian Linuxホストのデータストレージ用にext3からZFSに移行することを検討しています。私が本当に欲しいZFSのすばらしい機能の1つは、データの整合性の保証です。ストレージのニーズの増加に合わせてストレージを簡単に拡張できることも楽しみです。 ただし、同じホストでいくつかのVMを実行します。(通常、私の場合、ホスト上で同時に実行されるVMは1つだけです。) ZFSのデータチェックサムとコピーオンライトの動作、およびVMディスクイメージが比較的大きなファイルである(私のメインVMのディスクイメージファイルは現在31 GBにある)ことを考慮すると、そのようなVMゲスト内のパフォーマンスへの影響はどうなりますか移行?パフォーマンスへの悪影響の可能性を減らすために、どのような手順を実行できますか 必要に応じて、VMディスクイメージのデータ整合性をあまり保証せずに生きることができ(VM内で実際に重要なことは何もしません)、ファイルシステムの残りの部分から簡単に分離できますが、そうしないといいでしょう(選択的にでも)別のファイルシステムに移行したいと思うほとんどの機能をオフにする必要はありません。 ハードウェアは、ワークステーションクラスのシステムにはかなり強力ですが、ハイエンドサーバー(32 GB RAMを使用することはめったにない> 10 GBを超える32 GB RAM、6コア3.3 GHz CPU、現在2.6 TB使用可能)ディスク容量に応じてdf、合計で約1.1 TBの空きがあります.ZFSに移行すると、さらに空き容量が追加される可能性があります)、データ重複排除の実行を計画していません(重複除去をオンにしても、私の状況ではあまり追加されません)。計画はJBOD構成から開始することです(明らかに適切なバックアップを使用します)が、条件が許せば、最終的には双方向ミラーのセットアップに移行するかもしれません。

4
ZFSがLinuxとFreeBSD間で一貫していると信頼できますか?
近いうちにFreeNASボックスを構築する予定ですが、Linux上のZFSの信頼性が最終的に証明された場合は、より使い慣れたOSにするために切り替えることができます。 したがって、ZFSのさまざまな実装に互換性があると信頼できるかどうか疑問に思っています。言い換えると、FreeNASからLinuxまたはOpenIndianaにブートディスクを交換するだけで、データに何も悪いことが起こらないことを信頼できますか? これはばかげた質問のように思えるかもしれませんが、明らかに互換性があるはずですが、ドライブをコンピューター間で移動する場合にはZFSは一般的に使用されないので、誰かがより良い答えを提供できることを望んでいますただ「あるべき」。
11 linux  freebsd  zfs  freenas 

3
大規模なRAID-Zアレイは、大規模なRAID-5アレイと同じくらい悪いですか?
長い間(5TBを超える)RAID-5アレイが大きいという考えは、別のドライブに障害が発生するリスクが高いという理由だけで聞いていました。 RAID-Z1は、あらゆるサイズのアレイでこれを解決できましたか(4x2TBまたは5x2TBを考慮する必要がある場合)。すべてのドライブでそれほど激しくないデータを複製するより安全な方法でしょうか?
11 raid  zfs 

2
Illumos上のKVM(OpenIndianaとSmartOS)
私は、最近のKVMのIllumosへのポートを実行している単一のサーバー上に多数のゲストを仮想化することを検討しています。私の2つの主要なオプションはOpenIndianaとSmartOSのようです。最終的に使用するディストリビューションは、次の要件を満たす必要があります。 CLIを使用して管理およびカスタマイズできる必要があります(ZFSファイルシステム/ zvolオプションの変更、外部ドライブの接続とデータのコピー、zfs送受信を使用したデータのオフサイトサーバーへの自動複製など)。 自動化されたZFSスナップショットを実装する必要がある(例:zfs-auto-snapshotを使用)。 サーバーのヘルスが低下した場合に自動電子メール通知をセットアップできる必要があります。基本的に、定期的なZFSスクラブを設定し、zpool、fault manager、SMARTの問題を監視し、問題が検出されたら電子メールを送信します。OSが許可する限り、これを手動で設定しても構いません。 Debian、Ubuntu、およびWindows 2008 Server R2ゲストを安定性と妥当なパフォーマンスで処理する必要があります。これらのゲストは実稼働で使用されます。 将来のリリースが引き続き提供されるという合理的な期待があるはずです-私は行き止まりの製品を使用して立ち往生したくありません。 セットアップが簡単で、何らかのGUIがある場合は便利ですが、これはオプションです。 これらの要件に基づいて、どのディストリビューションをお勧めしますか? この環境は、今後のOpenIndiana安定版リリースがリリースされるまでデプロイされないと想定できます。また、サーバーがSandy Bridge Xeon E3-1xxx CPUを使用すると想定できるため、KVMの互換性に注意する必要があります。 また、これらのディストリビューションのいずれでも、IlumosへのKVMポートの堅牢性と安定性はどの程度ですか?今のところ、本番環境でKVM / Illumosを検討する必要がありますか?

2
ZFS-重複排除されたzvolまたはデータセットを破壊すると、サーバーが停止します。回復する方法
12個のミッドライン(7200 RPM)SASドライブを搭載したHP ProLiant DL180 G6で実行されているセカンダリストレージサーバーでNexentastorを使用しています。システムにはE5620 CPUと8GB RAMがあります。ZILまたはL2ARCデバイスはありません。 先週、750 GBのスパースzvolを作成し、重複除去と圧縮を有効にしてiSCSI経由でVMWare ESXホストと共有しました。次に、Windows 2008ファイルサーバーイメージを作成し、約300 GBのユーザーデータをVMにコピーしました。システムに満足したら、仮想マシンを同じプールのNFSストアに移動しました。 NFSデータストア上のVMで起動して実行したら、元の750GB zvolを削除することにしました。そうすると、システムが停止します。Nexenta WebインターフェイスとNMCへのアクセスが停止しました。最終的には生のシェルに到達することができました。ほとんどのOS操作は問題ありませんでしたが、システムはzfs destroy -r vol1/filesystemコマンドを停止していました。醜い。次の2つのOpenSolaris bugzillaエントリを見つけましたが、今度は、マシンが未知の期間ブリックされることを理解しています。14時間が経過しているため、サーバーへのアクセスを回復できるようにする計画が必要です。 http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6924390 そして http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=593704962bcbe0743d82aa339988?bug_id=6924824 将来的には、おそらくbuzillaの回避策の1つで与えられたアドバイスに従うでしょう。 Workaround Do not use dedupe, and do not attempt to destroy zvols that had dedupe enabled. 更新:システムの電源をオフにする必要がありました。再起動すると、システムはで停止しImporting zfs filesystemsます。それは今から2時間ずっとそうです。

5
VMwareディスクイメージを保存するNFSに最適なファイルシステムの選択
現在、複数のVMware ESXiサーバーのストレージとしてiSCSI SANを使用しています。追加の仮想マシン用にLinuxサーバーでNFSターゲットを使用することを調査しています。また、別のオペレーティングシステム(OpenSolarisなど)を使用することで大きなメリットが得られる場合は、そのアイデアを受け入れています。 非常に大きな連続ファイル(VMwareのディスクイメージなど)を好むLinuxベースのファイルシステムは何ですか?あるいは、この種のワークロード用にOpenSolarisでZFSをどのように見つけましたか? (この質問はもともとSuperUserで尋ねられたものです。方法を知っていれば、ここで回答を自由に移行してください)。

5
EC2の読み取りアクセスの方が高速です。ローカルドライブまたはEBS?
EC2インスタンスでの読み取りアクセスの方が高速です。「ローカル」ドライブまたは接続されたEBSボリューム? 永続化する必要のあるデータがあるため、これをEBSボリュームに配置しました。OpenSolarisを使用しているため、このボリュームはZFSプールとして接続されています。ただし、未使用になるEC2ディスクスペースの大部分があるため、これをZFSキャッシュボリュームとして再利用することを検討していますが、ディスクアクセスが潜在的に有害な影響がある可能性があるため、EBSボリュームのもの。

8
ZFSスナップショットを破棄できません:データセットは既に存在します
Solaris 10 8/07を実行しているサーバー(重要ではないと思いますが、T5220)があり、内部ディスクにZFSプール "mysql"があります。その中にファイルシステム「mysql / data / 4.1.12」があり、cronのスクリプトを使用して1時間ごとにスナップショットを作成します。 私はこれらの1時間ごとのスナップの1つとして作成された、破壊されないスナップショットを1つ持っています。私のスクリプトがそれを破壊しようとして失敗しないように、シーケンス外の名前を「mysql/data/4.1.12@wibble」に変更しましたが、それはもともとシーケンス内にありましたが、それは問題ではないでしょう。名前が正常に変更されます。スナップショットは正常にナビゲートされ、.zfs / snapshotsディレクトリから読み取ることができます。それに基づくクローンはありません。 それを破壊しようとするとこれが行われます: (265) root@web-mysql4:/# zfs destroy mysql/data/4.1.12@wibble cannot destroy 'mysql/data/4.1.12@wibble': dataset already exists (266) root@web-mysql4:/# これは明らかに無意味です。もちろん、それはすでに存在しています、それがポイントです! 誰もこのようなものを見たことがありますか?Web検索では、明らかに類似したものは何も表示されません。 必要に応じて、インストールされているパッチを提供できます。
11 solaris  zfs 

2
OpenSolarisでZFS RAID-Zアレイをより大きなディスクにアップグレードする方法は?
OpenSolarisをホームサーバー(現在Linuxを搭載)にインストールすることを計画していますが、将来的にサーバーをアップグレードして大容量のハードドライブを準備する方法を知りたいです。サーバーには4つの400GB SATAドライブがあり、ZFS RAID-Zを搭載したOpenSolarisをインストールします。しばらくしてから、または来年、ドライブを1x SATAドライブ4xにアップグレードする予定です。 ZFSでパーティションサイズのアップグレードと増加を行うにはどうすればよいですか?簡単で簡単な操作(たとえば、一度に1台のドライブを交換すると、ZFSは自動的にサイズを変更して全領域を使用します)、または特別な手順が必要ですか?システムをシャットダウンせずに実行できますか?

3
ZFSインポートでプールが見つからない
私はZFSプール-2つのvdevを含むミラー-をFreeBSDサーバーで実行していました。ミラーからディスクを1つだけ取得し、そこからファイルを回復しようとしています。 ZFSデータは、ディスク上のGPTパーティションにあります。 プールをインポートしようとすると、プールがまったく存在する兆候がありません。いくつかの方法を試しましたが、何も起こりません。 私はzdb -luパーティションで実行しましたが、ラベルは問題ないようです。 # zpool import # zpool import -D # zpool status no pools available # zpool import -f ztmp cannot import 'ztmp': no such pool available # zpool import 16827460747202824739 cannot import '16827460747202824739': no such pool available パーティション情報: # gpart list da0 Geom name: da0 modified: …

4
ZFSスクラブが*完了*したらコマンドを実行する方法は?
cronを使用してZFSプールの定期的なスクラブをスケジュールし、スクラブが完了してからしばらくしてから、ステータスレポートを自分宛にメールで送信したいと考えています。これの目的は、手動でそれらを探すことなく(プルではなくプッシュ)、問題をキャッチすることです。 最初の部分は簡単ですzpool scrub $POOL。私の特定の状況で妥当な間隔でrootとして実行されるようにcronジョブを設定するだけです。 第二部、どうすればいいのかよくわかりません。zpool scrubすぐに戻り、スクラブはシステムによってバックグラウンドで実行されます(スクラブが端末から管理者によって開始された場合、これは確かに望ましい動作です)。zpool statusステータスレポートを表示して終了します(スクラブの実行中は終了コード0で終了します。まだ終了していないため、終了ステータスが変更されたかどうかはわかりませんが、疑います)。zpool scrubについて文書化されている唯一のパラメーターは-s、「スクラブの停止」用です。 主な問題は、からのステータスの変更を検出しているスクラブに仕上がっスクラブ。それが与えられれば、残りは適切な場所に収まるはずです。 理想的にはzpool scrub、スクラブが終了するまで戻らないようにしたいのですが、それを行う方法がありません。(単純にcronを実行するのはほとんど簡単すぎるでしょうzpool scrub --wait-until-done $POOL; zpool status $POOL。) それができない場合は、システムに、スクラブが現在進行中かどうかを確認します。できれば、アップグレードまたは構成の変更によってリスクが大幅に低下しないようにして、以前に実行されているかどうかを確認できるようにします。スクラブが終了しました(スクラブステータスがスクラブから非スクラブに変わったときにzpoolステータスを実行することにより)。 この特定のセットアップはワークステーションシステム用であるため、Nagiosなどの監視ツールには問題を解決するアドインが含まれている可能性がありますが、この1つのタスクだけにこのようなツールをインストールするのはやり過ぎです。誰かが問題に対するより低い技術の解決策を提案できますか?
11 linux  monitoring  zfs 

6
WindowsでのZFSのような代替手段
概念的には、私はここに一人ではないと思います。ZFSの概念が大好きです。1つの大きなディスクを作成でき、すべてが複数のドライブに保存され、いつでもプールとドライブを拡大および縮小できます。さらに、ディスクは同じである必要はありません。 ZFSについて私が嫌いなのは、言うまでもなく、Oracle(以前のSun)ハードウェアで実行されているSolarisで本当に安定した唯一のフォームです。確かに、OpenSolarisが存在し、FreeBSDはZFSをサポートしていますが、Oracle以外のハードウェア上のFreeBSD / OpenSolairs / Solarisでの信頼性は一般的に低いと言われています。 私たちは(現時点では)Window Server 2008 R2サーバーを実行しています。このOSの「次善の」DASストレージオプションは何ですか?Windows用のZFS実装が見つからないので、それは終わりです。myradのRAIDカードは世の中にあります。ZFSの柔軟性に近づく設定を誰かが推奨できますか?再構築のためにサーバーを停止する必要なしに、プールにディスクを追加し、より多くのストレージを割り当てることができるセットアップですか? つまり、ZFSは好きだが、Windows Server 2008 R2を実行したい場合は、最善の/最もクールなオプションは何ですか? PS:これは本番システム用であり、予算はシステムあたり約10kです。

1
`zfs list`と` zpool list`がraidz2プールの非常に異なるサイズを報告するのはなぜですか?
8つのzpoolを持つZFSサーバーがあります。各プールは、10 + 2 RAIDZ構成の12個の6TBディスクです。したがって、各プールには、12 * 6 = 72 TBのrawストレージスペースと10 * 6 = 60 TBの使用可能スペースがあります。私はそれが使用してクエリを実行する場合しかし、私は別の結果を参照してくださいzfs list使用して対をzpool list以下のように: # zfs list NAME USED AVAIL REFER MOUNTPOINT intp1 631K 48.0T 219K /intp1 intp2 631K 48.0T 219K /intp2 intp3 631K 48.0T 219K /intp3 jbodp4 631K 48.0T 219K /jbodp4 # zpool list NAME SIZE ALLOC …
11 zfs  zfsonlinux 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.