タグ付けされた質問 「zfs」

ZFSは、もともとSun Microsystemsによって開発され、CDDLに基づいてライセンスされた最新のファイルシステムおよびボリュームマネージャです。これは、大容量ストレージアレイ、破損防止、スナップショット、クローン、圧縮、重複排除、およびNFSv4 ACLをサポートするコピーオンライトファイルシステムです。ZFSのオープンソースフォークはhttp://open-zfs.org/にあり、ZFSonlinux.org、illumos.org、およびFreeBSD&Mac OS XコミュニティのZFS開発者によってサポートされています。

3
FreeBSD:圧縮をオンにしたzfsの実際のファイルサイズを知る方法
FreeBSD 9.0 x64で zfsを使用していますが、かなり満足していますが、圧縮されたサイズではなく、実際のディレクトリを数えるのは難しいと感じています。 確かにディレクトリを歩いてlsですべてのファイルサイズをカウントできますが、その目的のためにduの追加のキーが必要です。 だから、圧縮をオンにしてzfsに配置されたdirのディレクトリサイズをどのように伝えることができますか? アドバイスを事前にありがとうございます、私は単純に「find ./ -type d -exec ls -l '{}' \; | awk ... '!
17 freebsd  zfs  find  ls  du 

4
ZFSクラスター化ファイルシステムは可能ですか?
ZFSクラスターを作成することはできますか?それとも、GlusterFSが管理するUFSフォーマットのプールを使用して、ZFSの(少なくとも私にとっては)ugいルートに行く必要がありますか? アイデアは、ZFSが問題なく処理できるマルチペタバイトの分散ストアに拡張できるかどうかを確認することです。 ポインター、ブログ、投稿はありますか?

3
ZFSを使用した非ECCメモリ:馬鹿げたアイデア?
新しいサーバーがあり、わずかな2 GBのメモリを最大16 GBにアップグレードする予定です。(理論的には8 GBが制限ですが、経験的には16 GBが機能することが示されています。) 一部のガイドは、ECCメモリはそれほど重要ではないとアドバイスしていますが、私はこれを信じていません。 FreeNASをインストールしました。新しいハードドライブが到着したらすぐにZFSボリュームを追加する予定です。ZFSベースのNASでECC以外のメモリを節約して取得するのは愚かなことでしょうか?それが必要な場合、私は弾丸を噛みますが、それが単なる妄想である場合、私はおそらくそれをスキップします。 ZFSやFeeeNASは何らかの理由がある特に ECCメモリを必要とする、または非ECCメモリを使用して、システム上で実行されている場合は特に苦しむでしょうか?
16 memory  zfs  freenas  ecc 

5
ZFSとSAN —ベストプラクティス?
ZFSのほとんどの議論では、ハードウェアRAIDをオフにし、ZFSがディスクと直接通信し、(RAIDコントローラーではなく)ホスト上のRAIDを管理する必要があることを示唆しています。 これは、2〜16個またはそれ以上のローカルディスクを搭載したコンピューターでは理にかなっていますが、大規模なSANを備えた環境ではどうでしょうか。 たとえば、私が働いている企業には、2つのフルラックのディスクを備えた控えめなサイズのSANと考えるものがあります。これは400スピンドルのようなものです。SANシェルフは私たちのものよりもはるかに高密度であり、SAN展開は私たちのものよりもはるかに大きいのを見てきました。 100台のディスクを大きなZFSサーバーに直接公開していますか?300ディスク?3000ディスク?SAN管理ツールは、この種の自動管理を容易にしますか?

7
vmの効率的なオフサイトリモートバックアップソリューションの推奨事項
現在の6つのvmをバックアップするための推奨事項を探しています(すぐに最大20に拡大します)。現在、2ノードのproxmoxクラスターを実行しています(これは、管理するカスタムWebフロントエンドで仮想化にkvmを使用するdebianベースです)。AMD phenom II x4とasusマザーボードを備えた2つのほぼ同一のボックスがあります。それぞれに4つの500 GB sata2 hdd、1つはOSおよびproxmoxインストール用の他のデータ、3つはmdadm + drbd + lvmを使用して2台のマシン間で1.5 TBのストレージを共有します。すべての仮想マシンのlvmイメージをkvmにマウントします。現在、1台のマシンから別のマシンへ、通常数秒以内にライブ転送を行うことができます(m $ SQLサーバーでwin2008を実行している最大のvmでは約2分かかります)。proxmoxの組み込みvzdumpユーティリティを使用して、vmのスナップショットを取得しています sネットワーク上の外部ハードドライブに保存します。次に、リモートオフサイトバックアップ用にvzdumpフォルダーを同期するjunglediskサービス(ラックスペースを使用)があります。 これはすべてうまくいきますが、あまりスケーラブルではありません。1つは、バックアップ自体が毎晩最大数時間かかる場合があることです。junglediskのブロックレベルの増分転送では、同期はデータのほんの一部をオフサイトに転送しますが、それでも少なくとも30分かかります。 もちろん、はるかに優れたソリューションは、2つの時点の差(午前6時から午前7時までに書かれたもの)を即座に取得し、それを圧縮し、その差分ファイルをバックアップサーバーに送信して、すぐにラックスペース上のリモートストレージ。私はzfsを少し調べましたが、それは送受信を行う能力です。bzipまたは何かのデータのパイプと相まって、完璧に思えます。ただし、nexfsaサーバーをzfsで実装するには、iSCSIブロックボリュームを(zvolを介して)proxmoxサーバーに提供するために、少なくとも1つまたは2つの専用ストレージサーバーが必要です。できる限りセットアップを可能な限り最小限に抑えることをお勧めします(つまり、別個のストレージサーバーを持たない)。 また、zumastorについても簡単に読みました。私が望むこともできるように見えますが、2008年に開発を停止したようです。 それで、zfs、zumastor、その他?

13
ZFS send / recvに最適な圧縮
ポイントツーポイントT1回線を介して増分ZFSスナップショットを送信していますが、次のバックアップが開始される前に、1日分のスナップショットをネットワーク上で作成することはできません。send / recvコマンドは次のとおりです。 zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | bzip2 -c | \ ssh offsite-backup "bzcat | zfs recv -F tank/vm" 予備のCPUサイクルがたくさんあります。より少ないデータを回線にプッシュするために使用できる、より良い圧縮アルゴリズムまたは代替方法はありますか?

7
HP SmartアレイP400でのRAID機能の無効化
システム(HP ML370 G5、Smart Array P400、8 SASディスク)でZFSを使用する予定です。ZFSですべてのディスクを個別に管理して、より良いスケジューリングを利用できるようにしたい(つまり、ZFSでソフトウェアRAID機能を使用したい)。 問題は、RAIDコントローラーでRAID機能を無効にする方法が見つからないことです。現在、コントローラーはすべてのディスクを1つの大きなRAID-5ボリュームに集約しています。そのため、ZFSは個々のディスクを認識できません。 このセットアップを達成する方法はありますか?

1
ZFS:圧縮アルゴリズムの変更後に既存のファイルを再圧縮します
私は2011年にを使用して作成されたプールを使用していますがlzjb compression、数年後、アップグレードによって圧縮をに設定できるようになりましたlz4。配列上のコンテンツの少なくとも20%(スペース)が2013年以前に作成されたと推定しlzjbます。つまり、を使用して圧縮されたままです。 これを修正し、(一部の)スペースを取り戻すためのいくつかのオプションを考えることができます。 新しいプールにバックアップして復元します。一時的なコピーを保持するのに十分な冗長ストレージがないため、実際には実用的ではありません。復元には、プールを数時間オフラインにする必要もあります。 タイムスタンプが2013年より古いファイルを再コピーするスクリプトを作成します。特にスペースや他の特殊文字をチョークして元の名前をマングルする場合は、潜在的に危険です。 現在の圧縮アルゴリズムを使用して、ZFSにレガシーブロックを再圧縮させる方法はありますか?スクラブのようなものですが、圧迫を癒します。 関連する質問:各タイプの圧縮アルゴリズムの使用状況を確認する方法はありますか?zdbは、個々のアルゴリズムに分解するのではなく、全体的な圧縮統計のみを表示します。
14 zfs 

5
zpoolでディスクを識別する必要があります...方法は?
FreeNASのzpoolで不良ディスクを交換する必要があります。 zpool status ショー gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open そのディスクのシリアル番号を見つけるにはどうすればよいですか? もっと: glabel status 与える: Name Status Components ufs/FreeNASs3 N/A da0s3 ufs/FreeNASs4 N/A da0s4 ufsid/4fa405ab96518680 N/A da0s1a ufs/FreeNASs1a N/A da0s1a ufs/FreeNASs2a N/A da0s2a gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca N/A ada1p2 gptid/60570005-3ff2-11e2-9437-f46d049aaeca N/A ada3p2 gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca N/A ada4p2 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca N/A ada6p2 gptid/61925b86-3ff2-11e2-9437-f46d049aaeca N/A ada9p2 gptid/4599731b-8f15-11e1-a14c-f46d049aaeca …
14 freebsd  zfs  freenas  zpool 

4
ZFSスクラブのチューニング、141 KB / sを15日間実行
7.2k rpm sasディスクでミラー+ストライプを実行する、特に基本的なシステムではありません。すべてのデータセットで重複除去、圧縮なし。スクラブは、死んだカタツムリの速度で15日間実行されています。実行する必要のある最適化はありますか、それともハードウェアの欠陥が原因ですか? MD1200エンクロージャを搭載したDell R510。 Xeon E5620 x 2 48GB NexentaStor 3.1.3、コミュニティ版 いくつかの情報: scan: scrub in progress since Mon Apr 1 19:00:05 2013 171G scanned out of 747G at 141K/s, 1187h40m to go 0 repaired, 22.84% done config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 mirror-0 ONLINE …
14 zfs  nexenta 

1
FREENAS:RAIDZ1ボリューム内でmvコマンドが即座に実行されないのはなぜですか?
現在、RAIDZ1ボリューム内のファイル構造を「再編成」しています。あるデータセットから別のデータセットにディレクトリを移動します。両方とも同じボリュームに含まれています。 マシンにSSHで接続し、古き良き時代を作りました: mv *宛先 これは瞬間的なものではありませんか?私はそれが3つのドライブに広がっていることを理解していますが、同時に、ファイル自体は本当に移動する必要はありません。そうではありません。移動するデータは約500Gありますが、現在は約30分実行されています。ああ なぜすぐ近くにないのですか? 仕様:CPU:Intel G3220 MB:Gigabyte GA-B85-HD3 MEM:Kingston DDR3-1600 8GB DISK:3x2TB WD Green in RAIDZ1 volume
14 raid  freebsd  zfs  freenas  mv 

2
ZFS:ミラーとRAID-Z
OpenSolarisとZFSを使用して、XenServer仮想マシンのiSCSIターゲットと一般的なホームファイルサーバーの2つの主要なサービスを提供するファイルサーバーの構築を計画しています。私が見ているハードウェアには、2x 4ポートSATAコントローラー、2x小型ブートドライブ(各コントローラーに1つ)、およびストレージ用の4x大型ドライブが含まれています。これにより、アレイごとにアップグレードするために、コントローラーごとに1つの空きポートが許可されます。 私が少し混乱しているのは、ストレージドライブのセットアップ方法です。パフォーマンスについては、ミラーリングが重要なようです。ミラーリングよりもRAIDZを使用することの利点を理解するのに苦労しています。このセットアップでは、2つのオプションが表示されます。1つのストライプ内の2つのミラープール、またはRAIDZ2です。両方とも、2つのドライブ障害、および/または1つのコントローラー障害から保護する必要があります... RAIDZ2の唯一の利点は、 2台のドライブが故障する可能性があることです。どちらの場合もストレージは容量の50%である必要がありますが、最初のストレージの方がパフォーマンスがはるかに優れているはずですよね? もう1つ心がけているのは、3つ以上のデバイスを備えたミラーアレイの利点です。データの整合性のために、3方向ミラーに対するRAIDZの利点はありますか?ZFSはファイルの整合性を維持するので、RAIDZはテーブルに何をもたらしますか... ZFSの整合性チェックはRAIDZのパリティの値を無効にしませんか?
14 opensolaris  zfs 

3
ディスク全体またはパーティションでZFS zpoolを作成する必要がありますか?
FreeBSDマシンでzpoolを作成しています。zpoolの作成中に、次の2つのケースを観察します。 私が取る場合raw disksと作成しzpool、その後、私はzpoolsを形成することが可能ですし、彼らは完璧に働いています。 gpartin freebsd-zfsformatを使用してディスクをフォーマットしてからzpoolを作成すると、それらも完全に機能します。 私が混乱しているのは、zpoolの作成にはどちらのアプローチが良いですか?
14 unix  freebsd  partition  zfs  bsd 

2
Gitlabを大規模にバックアップするには?
オンプレミスのGitlabで3TBのバックアップを行う方法についてGitlabのサポートに尋ねるとき、彼らはtarballを生成するツールを使用して返信します。 これはすべてのレベルで間違っているように思えます。このtarballには、postgresダンプ、dockerイメージ、リポジトリデータ、GIT LFSなどの構成などが含まれています。KBの非常に動的なデータと一緒にTBの静的データをバックアップすることは適切ではありません。そして、1時間ごとにバックアップを取りたいという問題があります。 質問 一貫性のあるバックアップを取得するために、他の人からどのようにそれを行っているのかを本当に知りたいです。 Linux上のZFSは、それがソリューションの一部であるなら、私にとっては問題ないでしょう。

5
Linux上のZFSによる暗号化
Linux上のZFSはすでに暗号化をサポートしていますか?そうでない場合、計画されていますか? ZFS + LUKSの情報は大量に見つかりましたが、それはまったく面白くありません。ZFS暗号化を使用して、「信頼されていない」バックアップサーバーに送信するzfsを使用してレプリケーションを実行できます。つまり、zfs送信フラグメントは暗号化する必要があります。 ZoLが暗号化をサポートしていない場合、zVolを作成し、その上でLUKS + EXTを使用する(ZFSの多くの利点を失う)よりもエレガントな方法がありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.