タグ付けされた質問 「xfs」

XFSは、もともとSGIのIRIX OS用のファイルシステムですが、現在Linuxでも利用できます。16.8TBを超えるパーティションを処理できる数少ないLinuxファイルシステムの1つである、大きなファイルと大きなファイルシステムを適切に処理することで知られています。

1
XFSファイルシステムが突然より多くのスペースとスパースファイルでいっぱいになるのはなぜですか?
XFSファイルシステムをさまざまなLinuxサーバーでほぼ10年間データ/成長パーティションとして実行しています。 バージョン6.2以降を実行している最近のCentOS / RHELサーバーで奇妙な現象に気づきました。 EL6.0およびEL6.1から新しいOSリビジョンに移行した後、安定したファイルシステムの使用は非常に変化しやすくなりました。最初にEL6.2 +でインストールされたシステムは同じ動作を示します。XFSパーティションのディスク使用率の急激な変動を示します(下のグラフの青い線を参照)。 前後。6.1から6.2へのアップグレードは土曜日に行われました。 同じシステムの前四半期のディスク使用量グラフ。先週の変動を示しています。 大きなファイルと暴走プロセス(ログファイル、おそらく?)のファイルシステムをチェックし始めました。私の最大のファイルがduとから異なる値を報告していることを発見しましたls。スイッチduありと--apparent-sizeスイッチなしで実行すると、違いがわかります。 # du -skh SOD0005.TXT 29G SOD0005.TXT # du -skh --apparent-size SOD0005.TXT 21G SOD0005.TXT ファイルシステム全体でncduユーティリティを使用して簡単に確認すると、次の結果が得られました。 Total disk usage: 436.8GiB Apparent size: 365.2GiB Items: 863258 ファイルシステムにはスパースファイルがいっぱいで、以前のバージョンのOS /カーネルと比較して70GB近くのスペースが失われています! Red Hat Bugzillaに目を通し、ログを変更して、XFSに関する同じ動作の報告または新しい発表があるかどうかを確認しました。 N。 アップグレード中にカーネルバージョン2.6.32-131.17.1.el6から2.6.32-220.23.1.el6に移行しました。マイナーバージョン番号に変更はありません。 filefragツールでファイルの断片化をチェックしました。XFSパーティション上の最大のファイルには、数千のエクステントがありました。xfs_fsr -v低速のアクティビティ中にオンラインデフラグを実行すると、ディスク使用量が一時的に削減されました(上の最初のグラフの水曜日を参照)。ただし、大量のシステムアクティビティが再開されるとすぐに使用量が増加しました。 ここで何が起きてるの?

12
ZFSとXFS
〜16TBのストレージサーバーの構築を検討しています。現時点では、ファイルシステムとしてZFSとXFSの両方を検討しています。長所と短所は何ですか?何を探す必要がありますか?3番目のより良いオプションはありますか?
62 filesystems  storage  zfs  xfs 

5
CentOS7で/ homeを縮小してスペースを追加する方法
CentOS 7ファイルシステムはXFSであり、resize2fs動作しません。/home400G に縮小し、100Gのスペースをに追加する必要があり/ます。私は何をすべきか? # df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 50G 341M 100% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8G 84K 7.8G 1% /dev/shm tmpfs 7.8G 778M 7.0G 10% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/sda1 497M 241M 257M 49% /boot tmpfs …

3
XHELファイルシステムはRHEL / CentOS 6.xで壊れています-どうすればいいですか?
RHEL / CentOS(EL6)の最近のバージョンは、私が10年以上にわたって強く依存してきたXFSファイルシステムにいくつかの興味深い変更をもたらしました。昨年の夏の一部で、文書化されていないカーネルバックポートに起因するXFSスパースファイルの状況を追いかけました。EL6に移行してから、不幸なパフォーマンスの問題や一貫性のない動作をしている人もいます。 XFSは、デフォルトのext3ファイルシステムよりも安定性、スケーラビリティ、および優れたパフォーマンスの向上を提供したため、データおよび成長パーティションのデフォルトのファイルシステムでした。 2012年11月に表面化したEL6システム上のXFSに問題があります。アイドル状態でも、サーバーが異常に高いシステム負荷を示していることに気付きました。あるケースでは、アンロードされたシステムは、3 +の一定のロード平均を示します。他では、負荷に1+のバンプがありました。マウントされたXFSファイルシステムの数は、負荷増加の重大度に影響するように思われました。 システムには2つのアクティブなXFSファイルシステムがあります。影響を受けるカーネルへのアップグレード後、負荷は+2です。 深く掘り下げてみると、XFSメーリングリストxfsaildで、STAT D状態にあるプロセスの頻度が増加していることを示すスレッドがいくつか見つかりました。対応するCentOSバグトラッカーとRed Hat Bugzillaのエントリは、問題の詳細を概説し、これはパフォーマンスの問題ではないと結論付けています。2.6.32-279.14.1.el6より新しいカーネルでのシステム負荷のレポートのエラーのみ。 WTF?!? 1回限りの状況では、負荷レポートは大した問題ではないかもしれないことを理解しています。NMSと数百または数千のサーバーで管理してみてください!これは、2012年11月にEL6.3のカーネル2.6.32-279.14.1.el6で特定されました。カーネル2.6.32-279.19.1.el6および2.6.32-279.22.1.el6はその後の月(2012年12月および2013年2月)にリリースされ、この動作は変更されていません。この問題が確認されてから、オペレーティングシステムの新しいマイナーリリースがありました。EL6.4がリリースされ、現在カーネル2.6.32-358.2.1.el6上にあり、同じ動作を示しています。 新しいシステムビルドキューがあり、問題を回避する必要がありました。EL6.3の2012年11月以前のリリースでカーネルバージョンをロックするか、ext4またはZFSを選択してXFSを使用しないだけで、パフォーマンスが大幅に低下します。上で実行される特定のカスタムアプリケーション用。問題のアプリケーションは、アプリケーション設計の欠陥を説明するために、XFSファイルシステム属性のいくつかに大きく依存しています。 Red Hatのペイウォール付きナレッジベースサイトの背後に行くと、次のようなエントリが表示されます。 カーネル2.6.32-279.14.1.el6をインストールした後、高い負荷平均が観察されます。平均負荷が高いのは、xfsaildが各XFS形式のデバイスでD状態になるためです。 現在、この問題の解決策はありません。現在Bugzilla#883905で追跡されています。回避策インストールされたカーネルパッケージを2.6.32-279.14.1より前のバージョンにダウングレードします。 (RHEL 6.4のオプションではないカーネルのダウングレードを除く...) したがって、EL6.3またはEL6.4 OSリリースに対して実際の修正は予定されておらず、この問題に4か月以上かかります。EL6.5の修正案と利用可能なカーネルソースパッチがあります...しかし、私の質問は次のとおりです。 アップストリームのメンテナーが重要な機能を壊した場合、OSが提供するカーネルとパッケージから離れることはどの時点で意味がありますか? Red Hatはこのバグを導入しました。彼らはすべき errataカーネルに修正を組み込みます。エンタープライズオペレーティングシステムを使用する利点の1つは、一貫性のある予測可能なプラットフォームターゲットを提供することです。このバグは、パッチサイクル中にすでに実稼働中のシステムを混乱させ、新しいシステムの展開に対する信頼性を低下させました。提案されたパッチのいずれかをソースコードに適用できますが、それはどれほどスケーラブルですか?OSの変更に合わせて更新を続けるには、ある程度の警戒が必要です。 ここで正しい動きは何ですか? これはおそらく修正できるかもしれませんが、いつかは修正できません。 Red Hatエコシステムで独自のカーネルをサポートするには、独自の注意事項があります。 サポートの資格に与える影響は何ですか? 適切なXFS機能を得るために、新しくビルドされたEL6.4サーバーの上に動作中のEL6.3カーネルを単にオーバーレイする必要がありますか? これが正式に修正されるまで待つ必要がありますか? これは、エンタープライズLinuxのリリースサイクルに対するコントロールの欠如について何と言っていますか? XFSファイルシステムに長い間依存していたのは、計画/設計の間違いですか? 編集: このパッチは、最新のCentOSPlusカーネルリリース(kernel-2.6.32-358.2.1.el6.centos.plus)に組み込まれました。私はこれをCentOSシステムでテストしていますが、これはRed Hatベースのサーバーにはあまり役立ちません。

1
大規模なXFSファイルシステムにファイルを作成できません
Subversionリポジトリを保存するために使用される4 TBファイルシステムを備えたLinuxサーバーがあります。多くのリポジトリがあり、そのいくつかは数年間使用されています。 ディスクは元々約1 TBでしたが、約1年前に空き容量がなくなって4 TBに増加しました。現在、人々はリポジトリにファイルをチェックインできないと報告しています。エラーメッセージはNo space left on deviceです。 ディスクには約1.5 TBの空き容量があり、空きiノードがあることも報告されますが、新しいファイルを作成することはできません。古いファイルを更新することはまだ可能であり、断続的に一部のリポジトリが更新されますが、同じリポジトリが次の試行で失敗する場合があります。
24 linux  xfs 

2
小さなファイルシステムでの非常に奇妙なファイルサイズ(600 PB以上)
XFSファイルシステムにサイズが約200 GBのファイルがありました。これは、KVM駆動の仮想マシンの仮想ディスクを含むQCOW2イメージでした。何かがうまくいかなかったかもしれません(おそらくqemu-kvmの不具合だったかもしれませんが、私にはわかりません)、仮想マシンがクラッシュし、今では次のようなファイルがあります: 191090708 -rwxr--r--. 1 root root 737571587400425984 Oct 10 10:03 973d10e0-a5e3-4a59-9f98-4b9b9f072ade そのため、まだ191090708ブロックを占有していlsますが、656ペタバイトと表示されています。 さらに、同じ前史を持つ別のファイルがありますが、別のファイルシステム(XFSではなくGFS2)にあります。 410855320 -rwxr--r--. 1 root root 7493992262336241664 Dec 13 2014 ac2cb28f-09ac-4ca0-bde1-471e0c7276a0 410855320ブロックを占有しますが、ls約6.6エクサバイトとして表示されます。 これらのファイルを削除しても安全ですか?ありがとうございました! PS定期的にスナップショットを撮ることはとても良いことです!:)私は彼らなしで何をするかわかりません。

2
新しく作成されたXFSファイルシステムでは、78 GBが使用されています
XFSファイルシステムを持つ単一のパーティションとしてセットアップされることになっている12 TB RAID 6アレイがあります。新しいファイルシステムを作成すると、使用中の78 GBがありますが、ドライブにファイルがありません。 [root@i00a ~]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 32G 0 32G 0% /dev tmpfs 32G 0 32G 0% /dev/shm tmpfs 32G 11M 32G 1% /run tmpfs 32G 0 32G 0% /sys/fs/cgroup /dev/sdb3 154G 3.9G 150G 3% / /dev/sdb2 1014M 153M 862M …
18 storage  partition  xfs  rhel8 

1
xfs、20個のディスク、Cephを備えた「大規模」サーバーでのページの断片化の原因
Linux IOシステムの経験が少しある人からの洞察は役に立ちます。これが私の話です。 最近、6つのDell PowerEdge rx720xdsのクラスターを立ち上げ、Ceph経由でファイルを提供しました。これらのマシンには、2つのnumaゾーンと70の奇数ギガバイトのメモリを備えた2つのソケット上に24のコアがあります。ディスクは、それぞれ1つのディスクのRAIDとしてフォーマットされます(そうでなければ、直接ディスクを公開する方法がわかりませんでした)。ネットワークは、mellanox infiniband IP over IBによって提供されます(IPパケットは、ハードウェアではなくカーネルランドでIBに変換されます)。 各SASドライブは次のようにマウントされています。 # cat /proc/mounts | grep osd /dev/sdm1 /var/lib/ceph/osd/ceph-90 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdj1 /var/lib/ceph/osd/ceph-87 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdu1 /var/lib/ceph/osd/ceph-99 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdd1 /var/lib/ceph/osd/ceph-82 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdk1 /var/lib/ceph/osd/ceph-88 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdl1 /var/lib/ceph/osd/ceph-89 xfs rw,noatime,attr2,inode64,noquota …

2
破損したXFSファイルシステムに対処する適切な方法
私は最近、停電のためにXFSファイルシステムが破損するようになりました。(CentOS 7システム)。システムは正常に起動しません。 私はレスキューCDから起動し、試しxfs_repairましたが、ログを処理するためにパーティションをマウントするように指示されました。 私はパーティションをマウントし、lsはい、そこにあるように見えることを確認しました。パーティションをアンマウントし、xfs_repair再試行して同じメッセージが表示されました。 この状況で私は何をすべきでしょうか?レスキューCD(System Rescue CD、バージョン4.7.1)に何か問題がありますか?他に使用すべき手順はありますか? 結局、バックアップからシステムを単純に復元することになりました(この場合は迅速かつ簡単でした)が、今後何をすべきか知りたいのです。

2
16 TBのデータディスクでGPTが必要ですか?
私が作った/dev/sdb私が上で直接XFSを置くためにtempedていたハードウェアRAID、使用して16 TBのディスクである/dev/sdbパーティションを行わずに。将来、これを2倍に拡大する必要があります。 ハードウェアは、前面に12個のSASディスクトレイを備えたHP ProLiant DL380 Gen 9です。 パーティションを作成しないことの1つの利点は、再起動が必要ないことですが、2 TBを超えるディスクでは状況が異なりますか? GPTが必要ですか、それともRAIDアレイとXFSなしでGFSを拡張するときに問題が発生しますか?
17 linux  raid  hp  xfs  gpt 

2
Linux上の本番環境に対応した信頼性の高いファイルシステム:ext4 ext3 XFSまたはJFS(またはZFS)?
私がこのトピックで見た最後の本当の質問は、約2年前のものです(本番用にext4が用意されています)。 その間、ext4はどのように改善されましたか? XFS、JFS、およびext3は、スタンバイの信頼できる選択肢です。私は最近のUbuntuテスト/開発環境でのみext4を使用しましたが、問題は見られませんでしたが、使用頻度の低いワークステーション、VM、使い捨てトレーニング環境でもあります。 スピードと信頼性の観点から、(特に)XFSとJFSに対して成熟する時間がありましたが、ext4はどのように積み上げられますか? ZFSは実行可能なオプションですか(ヒューズ モジュールであるため、おそらくLinux向けではありませんが)。
16 filesystems  ext3  ext4  xfs  jfs 

2
LinuxでRAIDとLVMを使用してパーティションが調整されていることを確認する
LVMおよびmd RAID上のXFSファイルシステムが4096バイトのアレイ(別名「Advanced Format」セクター化ディスク)に適切に配置されていることを確認する手順を知っている人はいますか? 参照は次のとおりです 。http://www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -filesystems-to-an-ssds-erase-block-size / また、この質問のコンテキストは、Stack Overflowの新しいNASに関するものです:http : //blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

2
XFSパーティション上のHP DL380p Gen8(p420iコントローラー)I / Oの異常
6ディスクのRAID 1 + 0の上にあるLVMの上にXFSを使用するDL380p gen8サーバーでは、同一のワークロードにより、RHEL 5に比べてRHEL 6のディスク書き込みが10倍増加し、アプリケーションが使用できなくなります。 私はco6システムを可能な限り最適化するのではなく、co6の動作が大きく異なる理由を理解し、それを解決することに注目していることに注意してください。 vmstat / iostat mysql 5.5を使用したMySQLレプリケーションのセットアップがあります。OSとしてRHEL 6を使用しているgen8サーバー上のMysqlスレーブはパフォーマンスが低下し、vmstatおよびiostatを使用した検査により、これらのサーバーがページアウトアクティビティの10倍とディスクサブシステムへの書き込みの10倍を行うことが示されています。blktraceは、これらの書き込みがmysqlではなくカーネルによって開始されることを示しています。 Centos 5: [dkaarsemaker@co5 ~]$ vmstat 1 procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------ r b swpd free buff cache si so bi bo in cs us sy id wa st 3 0 12 252668 102684 10816864 0 …

2
単一のLinuxサーバーで異なるファイルシステムを実行した場合のパフォーマンスへの影響
著書「HBaseの:決定的なガイド」のように述べています 単一のサーバーに異なるファイルシステムをインストールすることはお勧めしません。これは、異なるファイルシステムをサポートするためにカーネルがバッファキャッシュを分割する必要があるため、パフォーマンスに悪影響を与える可能性があります。特定のオペレーティングシステムでは、これがパフォーマンスに壊滅的な影響を与える可能性があることが報告されています。 これは本当にLinuxに当てはまりますか?バッファキャッシュが300 MBを超えるのを見たことがなく、最新のサーバーの多くはRAMがギガバイトであるため、異なるファイルシステム間でバッファキャッシュを分割しても問題はありません。私は何か他のものが欠けていますか?

1
XFSでLinuxソフトウェアRAID 5を簡単に拡張できます。ベストプラクティス?
Ubuntuマシンを、Samba共有を使用するWindows / Linux / Macクライアントのファイルサーバーとして使用します。データを前後に移動することなく、ハードドライブを追加するだけで簡単に拡張できる必要があります。 これが私がこれまでやってきた方法です。4台目のハードドライブを追加しました。今、これがどのように行われるべきであるかを知ってうれしいでしょうか?私が間違っているのは何ですか? 最初の3ドライブアレイの作成 3つの空のドライブから始めました:/ dev / sdb、/ dev / sdc、および/ dev / sdd。 最初に、すべてのドライブに空のパーティションを作成しました。 $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] # Starting point to first sector (default) [enter] # Ending point to last sector (default) …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.