タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

9
ソフトウェアRAID再同期を中断する方法は?
debian squeezeソフトウェアraidで実行中の再同期操作を中断したい。(これは通常のスケジュールされた比較再同期です。このような場合、RAIDアレイはまだクリーンです。ディスクが故障して交換された後の再構築と混同しないでください。) 実行中にこのスケジュールされた再同期操作を停止する方法は?別のRAIDアレイは「再同期保留中」です。これらはすべて、同じ日(日曜日の夜)に次々にチェックされるためです。この日曜日の夜の再同期を完全に停止したい。 [編集:sudo kill -9 1010停止しません。1010はmd2_resyncプロセスのPIDです] また、再同期の間隔と次の再同期までの残り時間を制御する方法を知りたいと思います。 [編集2:今やったことは、再同期を非常に遅くすることでした。 sudo sysctl -w dev.raid.speed_limit_max=1000 http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.htmlから取得 夜中に高い値に戻すので、再同期を終了できます。 この回避策はほとんどの状況で問題ありませんが、それでも私が尋ねたことが可能かどうかを知ることは興味深いでしょう。たとえば、「保留中」を再同期または再同期している間は、配列を拡大することはできないようです。

5
再利用する代わりに、新しいアレイを作成した後にRAID 5データを回復する
人々は助けてください-私は目前に大きな頭痛(完璧な嵐の状況)を持つ初心者です。 ubuntu 11.04には、ソフトウェアRAID 5として構成された3つの1tb hddがあります。データは、完全に失敗して破棄されるまで、コンピューターのハードドライブの別の別のドライブに毎週コピーされました。数日前に停電が発生し、ボックスを再起動した後、襲撃はマウントされませんでした。私の無限の知恵で私は入りました mdadm --create -f... 代わりにコマンド mdadm --assemble 後まで私がやったトラベジーに気づかなかった。アレイの劣化を開始し、構築と同期を進めましたが、これには10時間ほどかかりました。戻った後、アレイは正常に稼働しているが、レイドは正常に動作していないことがわかりました つまり、個々のドライブはパーティション化されています(パーティションタイプf8)が、md0デバイスはパーティション化されていません。私がやったことを恐怖で悟り、いくつかの解決策を見つけようとしています。--createハードドライバーのコンテンツ全体が上書きされないように祈っています。 誰かがこれで私を助けてください-ドライブにあるデータは非常に重要でユニークです〜10年の写真、ドキュメントなど 参加しているハードドライブを間違った順序で指定すると、mdadmそれらを上書きする可能性はありますか?私がする時 mdadm --examine --scan 私は次のようなものを得ます ARRAY /dev/md/0 metadata=1.2 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b name=<hostname>:0 興味深いことに、以前はホストRAIDに:0が付加された名前ではなく、「raid」でした。 「サニタイズされた」構成エントリは次のとおりです。 DEVICE /dev/sdf1 /dev/sde1 /dev/sdd1 CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST <system> MAILADDR root ARRAY /dev/md0 metadata=1.2 name=tanserv:0 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b Here is the output from mdstat …

5
LinuxソフトウェアRAID 1からRAID 10を成長させる最良の方法
mdadm レベル1からレベル10への配列の成長をサポートしていないようです。 RAID 1に2つのディスクがあります。2つの新しいディスクを追加し、アレイを4ディスクRAID 10アレイに変換します。 私の現在の戦略: 適切なバックアップを作成します。 2つのディスクが欠落した、劣化した4ディスクRAID 10アレイを作成します。 rsync the RAID 1 array with the RAID 10 array. fail and remove RAID 1アレイから1つのディスク。 使用可能なディスクをRAID 10アレイに追加し、再同期が完了するまで待ちます。 RAID 1アレイを破壊し、最後のディスクをRAID 10アレイに追加します。 問題は、ステップ5での冗長性の欠如です。 もっと良い方法はありますか?


3
LinuxソフトウェアRAIDを新しいマシンに移動するにはどうすればよいですか?
Gentoo Linuxが新しくインストールされ、別のマシンのソフトウェアRAID 5アレイ(オフボードPCIコントローラに接続された4つのIDEディスク)を備えた、新しく構築されたマシンがあります。コントローラーを新しいマシンに正常に移動しました。ドライブはカーネルによって検出されます。また、mdadm --examineを使用して、単一のRAIDパーティションが検出され、クリーンで、「正しい」順序(hde1 ==ドライブ0、hdg1 ==ドライブ1など)であることも確認しました。 私がアクセスできないのは、古いマシンの元の構成ファイルです。データを失わずにこのアレイを再アクティブ化するにはどうすればよいですか?

4
Linux mdadmソフトウェアRAID 6-ビット破損リカバリをサポートしていますか?
ウィキペディアによると、「RAID 2は、RAID 6の一部の実装を除き、データのシングルビット破損から正確なデータを自動的に回復できる唯一の標準RAIDレベルです。」 LinuxでのRAID 6 mdadm実装が、シングルビットデータ破損を自動的に検出して回復できる実装の1つであるかどうかは誰にもわかりますか。他のバージョンと異なる場合、これはCentOS / Red Hat 6に関係します。オンラインで検索してみましたが、あまり運がありませんでした。 SATAエラーレートが1E14ビットに1つであり、2TB SATAディスクに1.6E13ビットが含まれているため、これは特にデータ破損の防止に関連しています。 編集2015年6月17日 これは私が当初考えていた問題ではないと思います- ハードディスク/ SSD-エラーの検出と処理を参照してください-サイレントデータ破損は確実に防止されますか?詳細については

2
LinuxでRAIDとLVMを使用してパーティションが調整されていることを確認する
LVMおよびmd RAID上のXFSファイルシステムが4096バイトのアレイ(別名「Advanced Format」セクター化ディスク)に適切に配置されていることを確認する手順を知っている人はいますか? 参照は次のとおりです 。http://www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -filesystems-to-an-ssds-erase-block-size / また、この質問のコンテキストは、Stack Overflowの新しいNASに関するものです:http : //blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

3
mdadm raid5による二重ディスク障害の回復-ひねり(ドライブ順)
最初に、間違いを犯したこと、およびこのRAID上のすべてではないがほとんどのデータのバックアップがあることを認めさせてください。残りのデータを回復することを望んでいます。ドライブを復旧の専門会社に持ち込むようなお金はありません。 間違い#0、100%のバックアップがない。知っている。 私が持っているmdadm4x3TBのRAID5システムを。/ dev / sd [be]をドライブし/dev/sd[b-e]1ます。すべて1つのパーティションがあります。非常に大きなドライブでのRAID5にはリスクがあることは承知していますが、とにかくそれを行いました。 最近のイベント 2つのドライブに障害が発生すると、RAIDは劣化します。一方のドライブ[/ dev / sdc]は実際になくなっており、もう一方の[/ dev / sde]は電源を入れ直した後に復旧しましたが、RAIDに自動的に再追加されませんでした。そのため、2つのアクティブドライブ[/ dev / sdbおよび/ dev / sdd]のみを持つ4デバイスRAIDが残っていました。 間違い#1、RAIDの復元にドライブのddコピーを使用していない。ドライブも時間もありませんでした。間違い#2 mdadm -E。スーパーブロックと残りのドライブのバックアップを作成していません。 回復の試み RAIDを縮退モードで再構成しました mdadm --assemble --force /dev/md0, using /dev/sd[bde]1. その後、データにアクセスできました。/dev/sdcスペアに交換しました。空の; 同一のドライブ。 /dev/sdc1RAIDから古いものを削除しました mdadm --fail /dev/md0 /dev/sdc1 間違い#3、ドライブを交換する前にこれを行わない 次に、新しいパーティションを作成/dev/sdcし、RAIDに追加しました。 mdadm --add /dev/md0 /dev/sdc1 その後、RAIDの復元を開始しました。ETA 300分 私はプロセス/proc/mdstatを2%で実行し、他のことをしました。 結果を確認する 数時間後(ただし300分未満)、プロセスをチェックしました。の読み取りエラーにより停止しました/dev/sde1。 …

3
mdのraid10、f2を説明する
さまざまなRAIDのほとんどがどのように機能するかを知っています。しかし、 LinuxソフトウェアRAIDの調査中に、推奨されるraid10、f2モードを見つけました。私はそれが2つまたは3つのディスクでどのように機能するかを本当に理解していません。誰かが私にそれを説明できますか?またはそれを説明する本当に良い記事を教えてください。

1
Q:MDADM mismatch_cnt>0。不一致のブロックを特定する方法はありますか?
はい。定期的なスクラブの後、MDADM RAID5は、mismatch_cnt = 16を報告しています。理解できるように、これは、読み取りエラーを報告したデバイスはないが、データとパリティが一致しないブロックが16個あることを意味します。 質問#1:これらのブロックのリストを入手できますか? 質問#2:基礎となるファイルシステムがEXT4である場合、#1が可能であると想定して、これらのブロックに関連付けられているファイルを識別する方法はありますか? ニアラインバックアップがあり、理想的な世界では、ライブアレイをバックアップデータと比較するだけで、静かに破損したファイルを見つけることができます。しかし、現実には、6TBのバックアップデータが非常に高価で時間がかかることを思い出しています。どこを調べて何を回復するかを知っていると、物事が非常に簡単になります。 (「チェック」オプションでのみRAIDスクラブを実行することに注意する必要があります。「修復」オプションでスクラブを実行すると、データまたはパリティのどちらかが間違っていることしかMDADMで認識されないため、非常に危険です。そのため、MDADMが50%の確率で誤った推測を行い、間違ったデータを再構築する可能性があるようです。 提案は大歓迎です!
12 linux  mdadm 

3
mdadmでRAID1アレイのサイズを変更する方法は?
Ubuntu 11.04(カーネル2.6.38-11)を実行しています。2x160GBを2x500GBドライブに交換しました。それらはRAID1として構成されます。 パーティションテーブルは適切なサイズを示しています。sfdiskは次のとおりです。 # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, size= 0, Id= 0 そしてfdisk: # fdisk -l /dev/sdb Disk /dev/sdb: …

3
mdadm raidアレイの名前を変更するにはどうすればよいですか?
古いRAIDアレイを置き換えるために、新しいRAIDアレイを組み立てました。ただし、この新しいアレイには/ dev / md127という自動名が割り当てられているため、他のさまざまな設定を変更する必要がないように、/ dev / md3に名前を変更します。mdadm raidアレイの名前を変更するにはどうすればよいですか?
12 linux  raid  mdadm 

2
ドライブが「E」状態のSynology NASでmdadmアレイを回復するにはどうすればよいですか?
Synologyには、カーネルのrdev-> flags構造に「DriveError」フラグを追加する、カスタマイズされたバージョンのmdドライバーとmdadmツールセットがあります。 正味の影響-アレイの障害(最初のドライブ)が発生し、2番目のドライブのエラーが発生した場合、アレイは、ドライブからの読み取りが機能しているにもかかわらず、アレイを修復または再構築できない状態になります。大丈夫。 この時点では、この質問についてはこの配列についてはあまり心配していません。既にコンテンツを取り出して再構築するつもりなので、将来的にはこの問題の解決方法を知りたくないからです。 、これは2回目なので、フォーラムで他の人が同様の質問をしているのを見たことがあります。 Synologyのサポートはあまり役に立たず(ほとんどの場合無反応)、ボックスのRAIDセットの扱いに関する情報は一切共有されません。 / proc / mdstatの内容: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2] 11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE] md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] …

4
apt-get install linux-image-extraは「W:mdadm:/etc/mdadm/mdadm.confは配列を定義しません。」を取得します。
インストールする場合: sudo apt-get install \ linux-image-extra-$(uname -r) \ linux-image-extra-virtual 私は得ています: W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. 他の誰かが同様の問題を抱えていることがわかりました:apt-get update mdadm scary warnings だから私は指示に従った: /usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf 次に: update-initramfs -u しかし、出力は次のとおりです。 update-initramfs: Generating /boot/initrd.img-4.10.0-30-generic W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. lsb_release -a LSB Version: core-9.20160110ubuntu5-amd64:core-9.20160110ubuntu5-noarch:security-9.20160110ubuntu5-amd64:security-9.20160110ubuntu5-noarch Distributor ID: Ubuntu Description: Ubuntu 17.04 Release: …

5
Linux LVMミラーとMDミラー
何年も前にLVMでミラーを作成したことを覚えていると思いますが、この「ログ」のことは覚えていません。または、mdadmでミラーを作成し、LVMを上に置いたかもしれません。それである必要があります。 単なるミラーの場合のLVMログとは何ですか?そこには何が保存されていますか?目的は何ですか?「--mirrorlog core」の使用は悪いですか?マイナス面は何ですか?必要がなければ、ログ用に別のパーティションを用意する必要はありません。 いずれかのテクノロジーの使用に関する推奨事項はありますか?mdadmでミラーを作成しても、その上でLVMを使用します。したがって、その場合、セットアップ全体をLVMで構築した方が良いかもしれません...?それには、パフォーマンスのヒットが少なくなるでしょうか、それとも少なくなりますか? ディスクは、Xen domU「ディスク」を保存するためのものです。 複雑で重要でない「質問」でごめんなさい。 アイデアや提案、リンクは大歓迎です。ありがとう!
11 lvm  mdadm  logging  mirror 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.