タグ付けされた質問 「mdadm」

LinuxソフトウェアRAIDデバイスを管理するユーティリティ

2
hdparmを使用してX分後にHDDをスタンバイ状態にできない
私はホームサーバーでUbuntu 12.04を使用しています。5つのハードドライブがあります。1つはOSを搭載したSSD、4つはmdadmを使用してRAID5として構成されたHDD(Samsung HD204UI)です。 RAIDはあまり必要ありません(たとえば、平均で1日1回程度)。マルチメディアデータといくつかのバックアップが含まれているため、ほとんどの場合、ドライブをスタンバイ状態にすることにしました。 ここ/dev/sdaでは例として、hdparmを使用して20分後に自動的にスピンダウンするようにドライブを構成しました。 hdparm -S 240 /dev/sda コマンドの出力はこれを確認しました: /dev/sdb: setting standby to 240 (20 minutes) しかし問題は、最後のアクセスから約5秒後(代わりに20分後)にドライブがスピンダウンすることです。 hdparm -C /dev/sdb 表示: /dev/sdb: drive state is: standby ドライブが構成どおりに20分間待機しないのはなぜですか?RAIDセットアップと関係がありますか?(私はそうは思わない...) この非常に短いタイムアウトはRAID5であり、ファイルにアクセスすると4つのドライブにブロック単位で分散されるため、問題があります。ドライブ1はドライブ2が読み取られるときに必要ないため、次回使用されるときに(ドライブ3が読み取られた後)スリープ状態になりました。そのため、ドライブは常に回転し続け、スループットはほぼゼロになります。 ドライブの寿命を気にしている人のために:私はドライブの正常性よりもエネルギーと熱の節約を好むので、ドライブが平均して1日に1回上下に回転することは問題ありません(私はRAID5を使用し、コンテンツはそれほど重要ではありません)。

1
ソフトウェアRAID5ディスクを修復するにはどうすればよいですか?
机の後ろにあるケーブルの経路を変更しているときに誤ってeSATAケーブルを外し、RAIDアレイをオフラインにしました。 ドライブは問題ないと思いますが、ドライブは「削除済み」の状態で表示されます。どうすればアレイを再初期化できますか? mdadm --detail /dev/md1 ショー: /dev/md1: Version : 00.90 Creation Time : Wed Oct 20 20:00:41 2010 Raid Level : raid5 Array Size : 5860543488 (5589.05 GiB 6001.20 GB) Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : …
11 mdadm 

2
「エラー:余分なRAIDメンバー」について心配する必要がありますか?
update-grub古いソフトウェアRAID(md)で新しくインストールされたUbuntu 12.04で実行すると、次のようになります。 error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). Generating grub.cfg ... error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID member (5 found). error: superfluous RAID …
9 grub2  raid  mdadm 

1
2TBを超えるディスクでRAIDアレイを作成するにはどうすればよいですか?
既存のサーバーにソフトウェアRAIDアレイをセットアップする正しい方法を教えてください。アレイに使用する2つの新しい3 TBディスクがあります。 具体的には、LVMを使用せずに、ext4にフォーマットされた3TB RAID 1アレイをセットアップしたいと思います。しかし、より一般的な答えは、最初から最後までの指示で他の人を助けるかもしれません。 私はいくつかのガイドを試しました: RAID 1の実装方法は?-プロセスの一部のみをカバー RAID 1での2つの追加SSDドライブのセットアップ -3TBではなく2TBのアレイになります RAID 1に2つの新しいHDDを追加 -1TBドライブのみを使用 私はこれらのリソースも見つけました: http://richard.blog.kraya.co.uk/tag/mdadm/-CentOSの場合、更新mdadm.confやその他の手順は対象外 http://www.technotes.se/?p=1732-包括的だが複雑であり、Ubuntu用に特別に作成されていない ドライブの最初のパーティション分割が重要なようです。上記の最後のリンクはこれについて詳細に述べていますが、前のリンクは同じ結果を達成するようで、より簡単です。
9 server  raid  mdadm 

2
mdadm RAID-6書き込み速度の向上
5x1Tb WD Green HDDのホームサーバーにmdadm RAID-6があります。読み取り速度は十分です-ddで268 Mb / s。しかし、書き込み速度はわずか37.1 Mb / sです。(48Gbファイルでddを介してテストされた両方、RAMサイズは1Gb、テストで使用されたブロックサイズは8kbです) 書き込み速度が非常に遅い理由を教えてください。それを改善する方法はありますか?書き込み中のCPU使用率はわずか25%(つまり、Opteron 165の1コアの半分)で、ビジネスに重要なデータはなく、サーバーはUPSでバックアップされています。 mdstatは: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sdd1[4] sde1[3] sdf1[2] sdb1[1] 2929683456 blocks super 1.2 level 6, 1024k chunk, algorithm 2 [5/5] [UUUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 助言がありますか? …
8 raid  mdadm 

1
Working RAID 1が「ERROR:pdc:wrong#of devices in RAID set」を返します
Ubuntu GNOME 16.04.1 LTS 64ビットを使用しています。 Iは、で作られたmdadm、(任意のOSやブートローダなし)通常の保存のために2 2-TB-ディスクをRAID 1れている/dev/sda1と/dev/sdb1(1.8 TBの両方全く同じパーティションサイズで)。/パーティションがでている/dev/sdc1ので、私はそれが影響するとは思いません。 私は問題なく約120 GBを保存しているので、どちらも完全に動作しているように見えcat /proc/mdstatますが、それでも次のように返されます。 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md127 : active raid1 sda1[0] sdb1[1] 1932603392 blocks super 1.2 [2/2] [UU] bitmap: 0/15 pages [0KB], 65536KB chunk unused devices: <none> 問題は、実行するたびにupdate-grub次の「エラー」が返されることです。 ERROR: pdc: wrong # of devices …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.