RAID5で誤って取り外したハードドライブを再度追加する方法


14

RAID 5の4つの2TBハードドライブを備えたUbuntu ServerにNASがあります。数週間前、ハードドライブの1つが故障しましたが、RAIDは機能していましたが、劣化していました。幸いなことに、それはまだ保証期間中であり、私は今日インストールした新しいハードドライブを送られました。ただし、新しいハードドライブをRAIDに追加しようとしても、再構築されませんでした。そこで、ハードドライブを取り外し、マシンを再起動しました。しかし、誤ってRAIDのOTHERハードドライブの1つを故障するように設定し、mdadmを使用して削除しました。

現在、私のRAIDには2つのハードドライブが取り外されています。3番目のハードドライブにはすべてのデータがそのまま残っていますが、RAIDアレイに再度追加する方法がわからないため、良好な(劣化している)状態に戻っているため、追加を続行できます4番目のハードドライブを使用して、アレイを再構築します。Ubuntuに、3番目のハードドライブにデータがあることを認識させ、アレイの一部として再び認識させることは可能ですか?

実行しようとすると:

sudo mdadm --manage /dev/md127 --re-add /dev/sdd1 

それは言います:

mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible

誰でもできるどんな助けでも大歓迎です。


1
劣化状態に戻すことができたと思います。ドキュメントでmdadm --assemble --forceコマンドを使用できましたが、4台のドライブのうち少なくとも3台が動作している状況に戻ったと思います。将来この問題に遭遇した人のために、これは私が使用したコマンドです(3つの作業ドライブがsdb、sdc、sddであり、それぞれがsdb1、sdc1、sdd1の単一パーティションであると仮定します:コード:sudo mdadm --assemble- force / dev / md127 / dev / sdb1 / dev / sdc1 / dev / sdd1(状況によってはsudoが不要な場合があります)
Chunky56

回答:


5

あなただけ行う必要があります--addありません--re-add。マニュアルページを読むと、--re-addイベントカウントが他のデバイスに近い場合にデバイスを再追加することについて説明しています。--examineこれを見つけるのに使用できます。

$ mdadm --examine /dev/sd[a-z]1 | egrep 'Event|/dev/sd'
mdadm: No md superblock detected on /dev/sda1.
/dev/sdb1:
         Events : 992655
/dev/sdd1:
         Events : 992655
/dev/sde1:
         Events : 992655
/dev/sdf1:
         Events : 992655
/dev/sdg1:
         Events : 158
/dev/sdh1:
         Events : 992655
/dev/sdj1:
         Events : 992655

あなたは私の/dev/sdh1デバイスがしばらくの間アレイにないのを見ることができるように動作しませんし、--re-addあなたはアレイを回復するために--addを実行する必要があります。

mdadm --detail /dev/md126何が起こっているかを見るために使用できますが、これはあなたのデータであるため、何かをする前にこれを実行することは悪い考えではありません!

$ mdadm --detail /dev/md126
/dev/md126:
        Version : 1.2
  Creation Time : Tue Jun 24 05:17:47 2014
     Raid Level : raid6
     Array Size : 14650158080 (13971.48 GiB 15001.76 GB)
  Used Dev Size : 2930031616 (2794.30 GiB 3000.35 GB)
   Raid Devices : 7
  Total Devices : 7
    Persistence : Superblock is persistent

    Update Time : Thu Nov  6 05:47:56 2014
          State : clean, degraded, recovering
 Active Devices : 6
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : omegacentauri:0  (local to host omegacentauri)
           UUID : 9fdcacc0:14f7ef3c:a6931b47:bfb8b4a1
         Events : 992656

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       49        1      active sync   /dev/sdd1
       2       8       65        2      active sync   /dev/sde1
       3       8       81        3      active sync   /dev/sdf1
       4       8       97        4      active sync   /dev/sdg1
       5       8      145        5      active sync   /dev/sdj1
       7       8      113        6      spare rebuilding   /dev/sdh1

または、これも使用できます。

$ cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md126 : active raid6 sdh1[7] sdg1[4] sdj1[5] sdf1[3] sdd1[1] sde1[2] sdb1[0]
      14650158080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
      [>....................]  recovery =  0.9% (26657536/2930031616) finish=1162.5min speed=41624K/sec

md127 : active (auto-read-only) raid1 sdi[1] sdc[0]
      1465007360 blocks super 1.2 [2/2] [UU]

紛失したデータについては責任を負いません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.