タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

4
実行中に「mdadm」RAIDをチェックする方法は?
私は自宅でコンピューターのコレクションを入手し始めており、それらをサポートするために、RAIDアレイを実行する「サーバー」Linuxボックスがあります。 その現在mdadm RAID-1、RAID-5私はより多くのドライブを持っていると行きます(そしてRAID-6私は望んでいます)。ただし、1つのドライブでデータが破損するというさまざまな話を聞いたことがありますが、最初のドライブに障害が発生し、2番目のドライブもねじ込まれている(および3番目、4番目の、5番目のドライブ)。 明らかにバックアップは重要であり、私もそれを大事にしていますが、この問題を解決し、実行中にRAIDをチェックできると主張するスクリプトを見たことがあることは知っています。しかし、これらのスクリプトを再び探していると、以前に実行したものに似ているものを見つけるのが難しくなり、時代遅れで何が変わったかを理解していないように感じます。 実行中のRAIDをチェックして、すべてのディスクがまだ正常に実行されていることを確認するにはどうしますか? 私はすべてのドライブでSMARTを監視しており、mdadm障害が発生した場合にメールで通知するように設定していますが、自分のドライブもときどき「チェック」することを知りたいです。
41 raid  mdadm 

3
blkidのUUIDとmdadmの違いは?
blkidとで報告されたUUIDの違いを誰かが説明できますかmdadm?CentOSシステムの1つで、たとえば: [root@server ~]# blkid | grep /dev/md1 /dev/md1: UUID="32cb0a6e-8148-44e9-909d-5b23df045bd1" TYPE="ext4" [root@server ~]# mdadm --detail /dev/md1 | grep UUID UUID : f204c558:babf732d:85bd7296:bbfebeea なぜ異なるのmdadmですか?また、使用するUUIDをどのように変更しますか? tune2fsパーティションのUUIDを変更するために使用することを理解しています(これにより、返されるものが変更されますblkid)が、mdadm使用するものを変更する方法がわかりません。
26 linux  mdadm  uuid 

4
パーティションまたはディスク全体を直接使用してmdadmアレイを作成することの違いは何ですか
mdadmパーティションまたはディスク全体を直接使用してアレイを作成することの違いは何ですか?ドライブ全体を使用するつもりだとします。GPTを使用していることに注意してください。 次の2つの方法で作成されたRAID6を想像してください。 mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 または: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd 違いはありますか? EDIT1:たとえば、そのようなアレイでの信頼性や管理性、リカバリ操作などを意味します。 EDIT2:別のメーカーのドライブを使用しています。しかし、それは本当に問題ではありません。それらはすべてまったく同じサイズで、メーカーがドライブをわずかに異なるサイズにする場合があるという点がわかります。しかし、この質問のために、それらがまったく同じサイズであると仮定しましょう。 EDIT3:免責事項の並べ替え:これまでのところ、私は常にドライブをパーティション分割しています。

3
Linux RAID5アレイでまだ故障していないディスクを安全に交換する方法は?
4つのディスクにソフトウェアRAID5アレイ(Linux md)があります。 アレイを劣化状態にせずに、可能であればオンラインにして、ディスクの1つを新しいものに交換したいと思います。それはどのように可能でしょうか? 私はしたくないので、それは重要です: 再構築中にクラッシュする可能性があるため、他のディスクにストレスをかけるリスクを負い、 「パリティなしの状態」になる危険性があるため、しばらくの間はセーフティネットがありません。 オンラインでそうすることはあまりにも多くのことを求めているのでdd、古いディスクのデータをオフラインで新しいディスクに生コピー()してから置き換える必要がありますが、理論的には可能だと思います... コンテキスト:これらのディスクはすべて5.5年以上にわたってほぼ連続的に回転しています。現時点ではまだ完全に機能しており、すべて(長い)SMARTセルフテストに合格しています。ただし、これら4つのディスクの1つはそれほど長くは続かないと考えられる理由があります(予測障害が想定されます)。

2
mdadmの状態「アクティブ」と状態「クリーン」の違いは何ですか
異なるRAID5アレイを持つ2つの異なるコンピューターがあります。コマンドを実行すると mdadm --detail /dev/md0 一方のドライブは「アクティブ」と報告し、もう一方は「状態」フィールドの「クリーン」と報告します。違いはなんですか?どちらの状態を心配する必要がありますか?両方ともうまくいくようです。
20 raid  mdadm 

3
1つのデバイスでソフトウェアRAID 1を作成できますか
ミラーを作成したい単一のディスクがあります。このディスクを呼び出しましょうsda。同じサイズの別のディスクを購入しましたsdb。sdaそして、sdb呼ばれる一つのパーティション持っているsda1とsdb1、それぞれを。 レイドを作成するとき、sdaクリーンを消去して再起動するのではなく、でミラーリングを開始するだけですsdb。私の思考の流れはそうすることでした: mdadm --create --verbose /dev/md0 --level=mirror --raid-devices=1 /dev/sda1 ... sdbディスクなしでアレイを作成し、次のように実行します(このステップをどのように達成するかわからないため、次のコマンドを大声で考えています) mdadm /dev/md0 --add /dev/sdb1 注sdb1は次のようにフォーマットされていると想定されますsda1 これは可能ですか?
20 raid  mdadm  disk 

3
Linux md RAID:/ dev / md0 vs. / dev / md / 0
新しいシステム/usr/share/mdadm/mkconf(生成に使用されるスクリプト/etc/mdadm/mdadm.conf)/dev/md/0では、/dev/md0次の代わりにデバイス名を使用する傾向があります。 new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 これは/dev/md0、そこを期待しているユーザーにいらいらを引き起こすかもしれませんが、サーバーが問題なく起動するので、どうやらうまく動作するようです。 では/proc/mdstat、デバイスはまだ呼ばれています/dev/md0。 new-system ~ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb2[2] sda2[0] 1953381184 blocks super 1.2 [2/2] [UU] unused devices: <none> ls以下/dev/md/0へのシンボリックリンクであることを示しています/dev/md0。 new-system ~ # ls -l /dev/md/0 lrwxrwxrwx 1 root root 6 …
19 debian  mdadm  md 

1
新しいmd配列は自動読み取り専用で、resync = PENDINGがあります
次のコマンドで新しいmd配列を作成しました。 mdadm --create /dev/md1 -l 1 -n 2 /dev/sd[ed]1 ただし/proc/mdstat、resync = PENDINGを指定して、配列を「自動読み取り専用」として表示します。 ~ # cat /proc/mdstat Personalities : [raid1] md1 : active (auto-read-only) raid1 sde1[1] sdd1[0] 976630336 blocks super 1.2 [2/2] [UU] resync=PENDING md0 : active raid1 sdb1[0] sdc1[1] 1953511936 blocks [2/2] [UU] unused devices: <none> このサイトによると、これを次の方法で修正できます。 mdadm --readwrite /dev/md1 …
17 raid  mdadm 

5
mdadmによるビット腐敗の検出と修正
私は自宅のLinuxボックスnasですべてのHDDを再編成しようとしています。データ保護のためにmdadm raidを使用し、アレイを再形成するための柔軟性を望んでいます。ただし、これにmdadmを使用する前に、bit rotの処理方法を知りたいと思います。具体的には、回復不能な読み取りエラーメッセージがHDDから送信されないビットロットの種類。 NASの8台のディスクで少なくとも21TBのHDDを使用する可能性が高いことと、HDD の障害の可能性に関するさまざまな引用を考えると、1つのディスク障害からの再構築中に合理的に遭遇する可能性が高いと考えています残りのディスクで何らかの形のビットが腐敗しています。ドライブの1つで回復不能な読み取りエラーが発生し、ドライブが実際にエラーとして報告する場合、raid6で問題ないはずです(そうですか?)。ただし、ディスクから読み取られたデータが不良であるが、ディスクによってそのように報告されていない場合、raid6を使用してもこれをどのように自動的に修正できるかわかりません。これは私たちが心配する必要があるものですか?それは2010年であり、RAID5はまだ機能している記事を考える、そして自宅や職場での私自身の成功した経験では、物事は必ずしも話題の言葉やマーケティングが信じているほど悲観的ではありませんが、HDDが故障したからといってバックアップから復元する必要はありません。 使用パターンが、最大で数回書き込み、時々読み取ることを考えると、データのスクラブを実行する必要があります。私は上を参照 ウィキarchlinux 用のmdadmコマンドスクラビングデータとして配列を echo check > /sys/block/md0/md/sync_action その後、進行状況を監視します cat /proc/mdstat これは、すべてのディスクのすべてのセクターを読み取り、データがパリティと一致すること、およびその逆を確認するように思えます。私は、「チェック」操作が自動修正できず、検出するだけで、修正するのはユーザーに任せるという重要な状況があることをドキュメントに強調していることに気付きますが。 ビット腐敗からの保護を最大化するためにどのmdadm RAIDレベルを選択する必要があり、どのようなメンテナンスや他の保護手順を実行する必要がありますか?そして、これは私を何から守らないのでしょうか? 編集:私はRAID対ZFSまたは他の技術QAを開始するつもりはありません。mdadm raidについて具体的に知りたい。それが、私がSuperUserではなくUnixとLinuxで尋ねている理由でもあります。 編集:答えは次のとおりです: mdadmは、データスクラブ中にディスクシステムによって報告されたUREのみを修正し、スクラブ中にサイレントビット腐敗を検出できますが、修正できません/修正しませんか?
17 raid  mdadm 

3
mdadm:RAID 1のコンポーネントを削除できません
mdadmを使用してRAID 1アレイに/ bootパーティションを作成しました。このアレイは過去数回劣化しており、物理ドライブを取り外すたびに新しいドライブを追加し、アレイを正常に戻すたびに、新しいドライブ文字が使用されます。古いアレイをアレイに残したまま、失敗しました。存在しなくなったすべてのコンポーネントを削除することはできないようです。 [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] 存在しないドライブとパーティションを削除しようとしたことがあります。たとえば、/dev/sdb1。 [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or directory [root@xxx ~]# mdadm /dev/md0 -r faulty mdadm: Cannot …

1
mdadm raid1と4kドライブのチャンクサイズ(またはブロックサイズ)は?
mdadm raid1セットアップで2つの3 TBドライブを使用したい(Debian Sequeezeを使用)。 ドライブは、従来の512バイトの代わりに4kハードウェアセクターを使用します。 一方でカーネルが報告するため、私は少し混乱しています: $ cat /sys/block/sdb/queue/hw_sector_size 512 しかし、一方でfdisk報告: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes …

3
rsyncの片側をそんなに忙しくしているのは何ですか?
私のLANには、他の人のバックアップサーバーとして機能するDebianマシンがあります。4つのHDDがソフトウェアRAID 5 mdデバイスに結合されており、そのLVMとそのbtrfs上にあります。バックアップはrsyncを使用して行われ、大きなファイルシステムの場合は1時間以上かかります。長い間、私はこれについてできることはほとんどないと思っていました。 しかし最近、転送の両端でHDDアクティビティが大きく異なることに気付きました。Gentooを実行していて、ほとんどがext4を使用している送信側には、ディスクIOがほとんどありませんでしたが、受信側は常にビジーでした。ほとんどのデータは転送間で変化しないので、メタデータの読み取りはデータの大部分を占めるはずだと思います。しかし、btrfsでiノードを読み取ることがext4で同じことを行うよりも多くの作業であるとしたら、私は本当に驚きます。 iotop 受信側で約1〜4 MB /秒のディスク読み取りを確認しましたが、送信側ではたまに0.5 MB /秒のバーストしかありませんでした。 私の質問は、誰かがここで何が起こっているのか説明できますか?できれば、問題を回避する方法を示してください。 おそらく、私が使用できるいくつかのbtrfsチューニングフラグ、または類似したものがあります。バックアップサーバーにスナップショット機能を備えたFSが必要です。FreeBSDとZFSを使用しようとすると、すぐにFSの一貫性が失われるため、現時点ではbtrfsに代わるものはほとんどありません。したがって、ext4またはzfsを使用するように指示する回答は、賛成票を受け取る可能性がありますが、チェックマークは受け取りません。 cjmからの要求に応じて、使用中のRsyncオプション: --rsync-path='rsync --fake-super' --archive # -rlptgoD --hard-links # detect and preserve these --acls --xattrs --sparse --noatime # based on patch from samba #7249c1 --delete --delete-delay --fuzzy --human-readable # size suffixes, base 1000 --stats また、-fいくつかのファイルを除外するための一連のルール。 btrfsのマウントオプションは、次のように報告さmountれます。 rw,nosuid,noexec,noatime,nospace_cache 特に、これにはnoatimeフラグが含まれているため、一部のファイルに実際に違いがない限り、書き込みは必要ありません。私は、に応じてこの情報を追加した答えによって、カイル・ジョーンズ。
11 performance  rsync  io  mdadm  btrfs 

3
mdadm --confを使用してmdadm.confを書き込む
(増え続ける)同一のサーバーのRAIDセットアップをスクリプト化しようとしています。mdadmの使用に関して私が見たアドバイスは、RAIDアレイが作成されたらmdadm --examine --scan >> /etc/mdadm.conf、起動時にアレイが初期化されるように実行できることを示唆しています。しかし、それは私のために動作するようには思えない-特に配列として提示され/dev/md/<hostname>:poolた場合、mdadm --examine出力/dev/md/pool。 私は何か間違っていますか?私のバージョンのmdadmに何か奇妙な点はありますか? [root@positron /]# mdadm --create /dev/md0 --level=0 --name=pool --raid-devices=6 /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf [root@positron /]# mdadm --examine --scan ARRAY /dev/md/pool metadata=1.2 UUID=567da122:fb8e445e:55b853e0:81bd0a3e name=positron:pool [root@positron /]# ls /dev/md/* /dev/md/md-device-map /dev/md/positron:pool [root@positron /]# cat /dev/md/md-device-map md127 1.2 22a17d56:5e448efb:e053b855:3e0abd81 /dev/md/positron:pool [root@positron /]# mdadm --version mdadm …
11 rhel  raid  mdadm 

1
mdstatでのビットマップの意味は何ですか
少し前に、RAID6に4つのドライブを備えた新しいソフトウェアRAIDアレイ(mdadm)を作成しました。正常に動作するようです。mdstat続く: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 私を悩ませているのは、bitmap: 0/8 pages理解できない部分です。 問題は、これは潜在的な問題かどうかです。そして、ビットマップが実際に何であるかについて少し詳しく説明してください。 この配列の詳細は次のとおりです。 /dev/md0: Version : 1.2 Creation Time : Tue Nov 1 …

3
RAIDは自動的に再同期しますか?
RAIDアレイのステータスをランダムに確認したところcat/proc/mdstat、アレイの1つが再同期しているように見えました。 md1 : active raid1 sdb7[1] sdc7[0] 238340224 blocks [2/2] [UU] [==========>..........] resync = 52.2% (124602368/238340224) finish=75.0min speed=25258K/sec これはなぜですか、どういう意味ですか?どうやらr/w許可があればマウントポイントに問題なくアクセスできるようです。 編集1(SLMの回答に対応) 私がgrep通過dmesgしても--detailスイッチがあまり教えてくれない場合、実際には何も見ることができません。つまり、再同期が進行中であることを表示します...しかし、理由や、同期が外れた可能性がある理由についてのヒントはありません。 。-ハードウェアの交換を開始する前に、監視する必要があるだけかもしれません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.