MDADM RAID5アレイを再アクティブ化するにはどうすればよいですか?


22

サーバーを解体し、再接続する必要がありました。そうすると、MDADM RAID5アレイの1つが非アクティブとして表示されます。

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

すべてのディスクが見つかったように見えますが、何らかの理由でそれらを使用したくありません。

(S)ラベルは何を意味し、MDADMにアレイの使用を再開するように指示するにはどうすればよいですか?

[編集]を停止して、配列を組み立ててみました-v

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

..そしてcatを入力し/proc/mdstatても違いはありません。

[Edit2]役立つかどうかはわかりませんが、これは各ディスクを調べた結果です。

root @ mserver:〜#mdadm --examine / dev / sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

root @ mserver:〜#mdadm --examine / dev / sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver:〜#mdadm --examine / dev / sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root @ mserver:〜#mdadm --examine / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

ドライブが最初に次のように組み立てられたことを示唆するメモがあります。

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[編集3]

以下は(に基づいて起こったように見えるログを見るとUpdate Time--examine結果):

  1. sdbとsdfは、20日の13:22後にしばらくノックアウトされました
  2. sddは20日18時37分以降にノックアウトされました
  3. サーバーは1日の14:00後にシャットダウンされました

2枚のディスクが(明らかに)ダウンしたと同時に、私は(?)、配列で、その時点の後に書かれていないだろうと想定して合理的に安全であるべきだと思うし、あるべきように、ということを考えると、比較的に再instateにそれを強制しても安全正しい順番?それを行う最も安全なコマンドは何ですか?また、変更を書き込まずにそれを行う方法はありますか?

回答:


28

Sラベルはディスクが「予備」とみなされることを意味します。アレイを停止して再起動してみてください:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

配列を再構築し、それが機能しない場合は、を更新する必要があります。その方法の詳細mdadm.confについては、たとえばこの質問を参照してください。


それを試してみました(そして、-v何が起こっているのかを見るために追加しました)が、追加する必要があるすべてのディスクが次の行に沿って応答を取得しますmdadm: /dev/sdb1 is busy - skipping
ジョンケージ

md0を停止してアレイを再構築するだけです
krizna

それを試した-まだ運がない(私の編集を参照)
ジョンケージ

2
OK、RAIDが適切にシャットダウンされなかったと思われる場合、そうでない場合は、-Rまたはを試してください-f。それにも失敗する場合は、を使用して配列を再作成しmdadm create /dev/md0 --assume-clean <original create options> /dev/sd[dbfe]1ます。警告:これらのオプションはすべて、データを破壊する可能性があります。
ステファンサイデル

3
まあ私はそれのために行き、mdadm --assemble --scan --force働いた。アレイがバックアップされ実行されており、自分のデータにアクセスできます:)
ジョンケージ

9

この質問は少し古いですが、答えは同様の状況に直面している人を助けるかもしれません。提供したmdadm --examine出力からイベントカウントを見ると、それらは十分に近いようです(955190-sdb1およびsdf1の場合、955219、sde1の場合、955219、sdd1の場合、955205があります)。40〜50未満の場合、これで問題ありません。その場合、イベントカウントの違いに関係なくmdadmにドライブを受け入れさせるように、アレイを手動でアセンブルすることをお勧めします。

アレイを停止します。

mdadm --stop /dev/md0

次に、アレイを手動で再構築してみてください。

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

アレイのステータスを確認して、ドライブのリスト/構造に問題がないかどうかを確認します(コマンド出力の下部には、どのドライブがどのステータスで、アレイ内のどの位置にあるかが表示されます)。

mdadm --detail /dev/md0

構造に問題がない場合、再構築の進行状況を確認します。

cat /proc/mdstat

0

以下のコマンドでRaid md0を有効化できます

mdadm -A /dev/md0

mdadm.confファイルを更新するこのコマンド

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.