タグ付けされた質問 「zfs」

ZFSは、もともとSun Microsystemsによって開発され、CDDLに基づいてライセンスされた最新のファイルシステムおよびボリュームマネージャです。これは、大容量ストレージアレイ、破損防止、スナップショット、クローン、圧縮、重複排除、およびNFSv4 ACLをサポートするコピーオンライトファイルシステムです。ZFSのオープンソースフォークはhttp://open-zfs.org/にあり、ZFSonlinux.org、illumos.org、およびFreeBSD&Mac OS XコミュニティのZFS開発者によってサポートされています。

1
有効なレプリカのないホットスペアをZFSに強制的に切り離すとどうなりますか?
6つのRAIDZで構成されたZFSプールがあります。2つのディスクが故障する前に最初の故障からZFSが回復できなかった単一のRAIDZ内の2つのディスクを失うことにより、RAIDZの1つが劣化しました。再起動直後の「zpool status」の出力は次のとおりです。 pool: pod2 state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: resilver in progress for 0h6m, 0.05% done, 237h17m to …
9 linux  zfs  zfs-fuse 

1
ZFSヘッドノードをデータベースサーバーとして使用していますか?
ここに示すように、Nexentaの推奨アーキテクチャに基づいて、高可用性クラスタ共有ストレージにデュアルヘッドZFS-backed NASを使用しています。 1 JBODのディスクは単一の4 TB Postgresデータベースのデータベースファイルを保存し、他のJBODのディスクは20 TBの大きな未加工バイナリフラットファイル(大きな恒星オブジェクトの衝突シミュレーションのクラスター結果)を保存します。つまり、PostgresファイルをバッキングするJBODは主にランダムなワークロードを処理し、シミュレーション結果をバッキングするJBODは主にシリアルワークロードを処理します。どちらのヘッドノードにも256 GBのメモリと16コアがあります。クラスターには約200のコアがあり、それぞれがPostgresセッションを維持しているため、約200の同時セッションが予想されます。 ZFSヘッドノードをクラスターのミラーリングされたPostgresデータベースサーバーのペアとして同時に機能させることが、セットアップで賢明かどうか知りたいのですが。私が見ることができる唯一の欠点は次のとおりです。 インフラストラクチャのスケーリングの柔軟性が低下します。 冗長性のレベルがわずかに低くなります。 PostgresのメモリとCPUリソースが制限されています。 ただし、私が理解している利点は、ZFSは自動フェールオーバーにかなりとんでもないことであり、ヘッドと一緒に失敗するため、ヘッドノードが失敗したかどうかを各Postgresデータベースサーバーに理解させるために多くの作業を費やす必要はありません。ノード。

3
zfs rename / move root filesystem to child
同様の質問が存在しますが、mvこの場合は純粋な「移動」ではなく「コピーしてから削除」として機能するため、解決策(を使用)はひどいです。 そこで、私はプールを作成しました: zpool create tank /dev/loop0 そこにある別のストレージからデータを直接rsyncして、データがにあるようにしました/tank。 zfs list NAME USED AVAIL REFER MOUNTPOINT tank 591G 2.10T 591G /tank 今では、/tankファイルシステムに直接ではなく、子ファイルシステムにデータを置く必要があることに気づきました。 では、プール内の子になるように、既存のルートファイルシステムを移動または名前変更するにはどうすればよいでしょうか。 単純な名前変更は機能しません: zfs rename tank tank/mydata cannot rename to 'tank/mydata': datasets must be within same pool (ところで、実際にプールが1つしかないのに、データセットが同じプール内にないというメッセージが表示されるのはなぜですか。) すべてのデータのコピー(mvまたはデータセット全体を別のデバイスに送信して戻す)を伴う解決策があることは知っていますが、シンプルでエレガントな方法はありませんか? この段階ではスナップショットは気にしないことに注意してください(まだ気にする必要はありません)。

3
ZFSを使用したバックアップストレージサーバー
私は小さな会社のITすべてです。会社全体のバックアップポリシーを使用して、新しいサーバーと別のバックアップサーバーを含む新しいインフラストラクチャを設計したいと考えています。 会社で最も重要なことは、SQL Serverとそのデータベースです。データベースは10個ありますが、本当に重要なのは2つだけです。最初の1つは8 GBで、主にテキストデータと数値です。2つ目は約300 GBで、16 GB /月でPDFとGIFが含まれます。 ストレージを保存するには、現在のバックアップポリシーは1週間に1回の完全バックアップと6つの差分で構成されます。週あたり約350 GB、月あたり1.4 TBだと思います。 サイレントデータ破損に関する記事を読んだ後、Nexenta CommunityエディションでZFSを試すことにしました。 私の質問:重複排除を備えたZFSは、信頼性の観点からバックアップファイルを保存するのに適していますか、それともテープバックアップなどを検討する必要がありますか? 編集:今のところ、パフォーマンス、重複排除率などを予測できないことはわかっていますが、それが良いアイデアかどうかを知りたいのです。

2
Solaris 11へのアップグレード以降、私のARCサイズは、30GBのRAMがあるにもかかわらず、常に119MBをターゲットにしています。何?どうして?
Solaris 11がリリースされる前に、Solaris 11 ExpressでNAS / SANボックスを実行しました。ボックスは、D2700が取り付けられたHP X1600です。合計すると、12x 1TB 7200 SATAディスク、12x 300GB 10k SASディスクが別々のzpoolにあります。合計RAMは30GBです。提供されるサービスは、CIFS、NFS、およびiSCSIです。 すべて順調で、ZFSのメモリ使用量グラフは次のようになりました。 約23GBのかなり健全なArcサイズ-キャッシュに使用可能なメモリを利用します。 しかし、それが出たとき、私はSolaris 11にアップグレードしました。これで、グラフは次のようになります。 の部分的な出力arc_summary.plは次のとおりです。 System Memory: Physical RAM: 30701 MB Free Memory : 26719 MB LotsFree: 479 MB ZFS Tunables (/etc/system): ARC Size: Current Size: 915 MB (arcsize) Target Size (Adaptive): 119 MB (c) Min Size …
9 zfs  solaris-11 

3
ドライブサイズが異なるZFSプール
2つの2 TBドライブと2つの1TBドライブを使用してFreeNAS ZFSプールをセットアップすることを計画しています。どういうわけかデータの冗長性が欲しいのですが。私が読んで、この私の二つの選択肢がRAIDZ使用して1TBあたり2TBのドライブを失うか、(データの冗長性を確保するために必要なスペースを倍にする)このコマンドを使用するようにしている示唆しているようだポスト: zfs set copies=2 poolname これを処理し、DroboのBeyond RAIDまたはNetgearのXRAIDのようなものを実現するより良い方法はありますか?または、各2 TBドライブを1 TBパーティションに分割し、両方のパーティションをプールに入れることはできますか?
9 zfs  freenas 

6
ZFS圧縮を使用したファイルサイズ
通常、を使用してディレクトリツリー全体のサイズを見積もりますが、du -ks $DIRECTOY_TREE_ROOTこの方法はzfs圧縮がオンの場合は使用できません。 totalで表示されるには、ls -l単一のディレクトリのためにOKですが、ディレクトリツリーの同じ結果を得るための最も簡単な方法はありますか? 編集: オペレーティングシステムはSolaris 10です。 ディスク上で使用されているスペースではなく、実際のファイルサイズを探しています。

2
ZFSとキャッシュデバイス
SSDドライブをキャッシュとしてZFSストレージに追加します。誰もがこれで何か経験がありますか?キャッシュデバイスが停止した場合、データは影響を受けますか?
9 cache  ssd  zfs 

7
Nexentaの使用経験はありますか?[閉まっている]
現在のところ、この質問はQ&A形式には適していません。回答は事実、参考文献、専門知識によって裏付けられると期待していますが、この質問は、議論、議論、投票、または拡張ディスカッションを求める可能性があります。この質問を改善でき、再開できると思われる場合は、ヘルプセンターにアクセスしてください。 7年前休業。 Nexentaプラットフォームを評価して、うまくいけばいつかレガシーファイルサーバーを置き換える予定です。主にActive Directory環境でCIFSサーバーとして使用します。 誰かがそれを使用した経験がありますか?良い?悪い? どのハードウェアベンダーに行きましたか?どうして?独自の(Supermicro)を構築しましたか、それともビルド済みですか?
9 zfs  nexenta 

7
ZFSに対する訴訟はありますか?
本番環境でZFSを使用することに反対するケースはまだありますか? Solarisサーバーを実行していて、以前のリリースからSolaris 10 10/09へのアップグレードを計画しています。 現在、ローカルディスクにはSVMを、SANボリューム管理にはベンダーのテクノロジーを使用しています。ストレージのほとんど(すべてではない)をZFSに移行することを検討しています。スナップショット、簡単なストレージ管理(特にLUNの拡大)、高速な再同期などでLiveUpgradeを使用できるようにしたいと考え ています。注意すべき「落とし穴」はありますか?Oracleデータベースはたくさんあります。それは問題ですか?私たちが考えていることをしている否定的な経験をした人はいますか?
9 solaris  zfs 

6
NASボックスとしてのFreeBSD上のZFSに関する推奨事項は?
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 このページの回答は2009年のものであり、福音として信頼されるべきではないことに注意してください。zfsに関する具体的な質問がある場合は、[ 質問する ]ボタンをクリックして具体的な質問をしてください。 FreeBSD 7.2とZFSファイルシステムを使用してホームバックアップシステムを構築することを考えていました。誰もがそのファイルシステムの経験を持っていますか? 具体的には: ZFSから起動できますか?(私はしたいですか?) ドライブを追加するのは簡単ですか? さまざまなサイズのドライブをどの程度うまく処理できますか? 新しいドライブをその場で(または少なくとも再起動だけで)追加できますか? すぐに使えるものがいいでしょうか? 他の考えや提案は大歓迎です。 編集: 明確にするために、私はZFSのFreeBSDページを読みました。私が望んでいるのと同じような設定で実際的な経験を持つ人々からの提案を探しています。

6
iSCSIおよびNFS over 1GBイーサネットの「適切な」速度とは何ですか?
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 2つのZFSファイルシステムを共有するOpenSolarisボックスがあります。1つは、VMwareサーバーを実行しているCentOSボックスへのNFS接続です(ディスクイメージはZFSに保存されます)。もう1つは、Windows 2008サーバーへのiSCSI接続で、ZFSの上にNTFSフォーマットが設定されています。どちらの接続もgig-Eを介して直接行われます(スイッチなし)。 ボックスを監視するためにmuninを実行していますが、どのような数値を期待するべきかわかりません。誰かが私と比較するためのいくつかのベースライン番号を与えたり、チューニングを開始する場所について何か提案をすることはできますか? ここに私が見ているNFS統計があります、solarisボックスでmuninを修正したらiSCSIを投稿します:P

1
ZFSは相互依存性とクローンを含むスナップショットを削除します
以下は、ZFSボリュームとスナップショットのリストと、それぞれのオリジンとクローンです。 すべてのスナップショットを削除したいが、すべてのファイルシステムは保持したい。これどうやってするの? 私はzfs promote、ファイルシステムの多くの異なる組み合わせについて、各ファイルシステムを削除することを試みることを試みました。これにより、スナップショットが「ライブ」になる場所が変わります。たとえば、zfs promote tank/containers/sixスナップショットをFからtank/containers/three@Fに移動しますtank/containers/six@F。ファイルシステムのライブデータは変更されていませんが(これは私が望んでいることです!)、スナップショットを削除することはできません(これは私が望んでいるものではありません)。 典型的なzfs destroy試みでは、依存クローンがあり、そのうちのいくつか(スナップショット)は破棄したいが、他のもの(ファイルシステム)は破棄したくないことがわかりました。 例えば。 # zfs destroy tank/containers/six@A cannot destroy 'tank/containers/six@A': snapshot has dependent clones use '-R' to destroy the following datasets: tank/containers/five tank/containers/two@B tank/containers/two 上記の例では、tank/containers/fiveまたはを破棄したくありませんtank/containers/twoが、zfs promote5と2の場合、スナップショットを破棄することはできません。解決策はありますか? # zfs list -t all -o name,origin,clones NAME ORIGIN CLONES tank - - tank/containers - - tank/containers/five tank/containers/two@B …
9 zfs 


2
ストレージサーバー-別のモデルのSAS HBAカードの交換
TL; DR サーバーの元のSAS HBA(PCIeカード)は、OSがディスク(ZFS)を管理する必要があるため、透過パススルーをサポートしていません。 私の会社では、SRCSAS144E RAIDコントローラーを搭載したIntel SSR212MC2サーバー(スペックシート)を使用しています。マシンは使用されていない状態で横になっており、展開する前に実験を行う予定でした。 明らかに、SRCSAS144Eコントローラーは、OSへのRAIDボリュームの提示のみをサポートしています。12個の単一ボリュームRAID0グループを作成することは私には非常に無頓着なようでした。ディスクが別のサーバーに移動できないことに気付いたときの疑いが確認されました(ソフトウェアraidについてはhbaの承認済み回答を参照)。 SASの私の限られた理解が正しければそう、私は(のような他のカード買うことができ、これを、)既存の場所に置き、そこにSASエクスパンダからのケーブルを差し込みます。1日の終わりに、オペレーティングシステムは個々のデバイスをそれぞれ表示するはずですよね? Linuxカーネルはカードと通信するためにドライバーを必要としますが、そのようなありふれたデバイスに対する主流のサポートがあると思います。他に注意すべきことはありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.