SSDに障害が発生し、mdadmはRAID0アレイは問題ないと考えています


3

Debianでmdadmを使用してRAID0アレイを作成しました。sdfは死んだドライブです。

$ cat /proc/mdstat

md4 : active raid0 sdf1[1] sde1[0]
      468859904 blocks super 1.2 512k chunks

$ mdadm --misc --detail /dev/md4

/dev/md4:
        Version : 1.2
  Creation Time : <...>
     Raid Level : raid0
     Array Size : 468859904 (447.14 GiB 480.11 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : <...>
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : server:4  (local to host server)
           UUID : <...>
          Events : 0

Number   Major   Minor   RaidDevice State
   0       8       65        0      active sync   /dev/sde1
   1       8       81        1      active sync

$ file /dev/sdf

/dev/sdf: ERROR: cannot open `/dev/sdf' (No such file or directory)

$ tail /var/log/messages

Feb 24 08:03:32 server kernel: [33166523.696833] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 50 00 00 30 00
Feb 24 08:03:32 server kernel: [33166523.696903] sd 0:0:5:0: [sdf] Device not ready
Feb 24 08:03:32 server kernel: [33166523.696906] sd 0:0:5:0: [sdf]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Feb 24 08:03:32 server kernel: [33166523.696909] sd 0:0:5:0: [sdf]  Sense Key : Not Ready [current] 
Feb 24 08:03:32 server kernel: [33166523.696912] sd 0:0:5:0: [sdf]  Add. Sense: Logical unit not ready, cause not reportable
Feb 24 08:03:32 server kernel: [33166523.696916] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 90 00 00 08 00

注意事項:

  • / var / log / messagesのメッセージは、数分間にわたって数百回繰り返され、その後停止します。

  • mdadmは、アレイが故障したとは考えません。

  • mdadm --misc --detail /dev/md4/ dev / sdf1があるはずの場所の下部にある空白の場所。

  • ブロックデバイス/ dev / sdfはもう存在しません。

  • / dev / sdfが存在しないため、アレイ内でドライブを手動で故障とマークすることはできません。

アレイが正常であるとmdadmが判断した結果、ドライブが故障したというアラートを受け取ることはありませんでした。これが起こる原因は何ですか?

回答:


0

このページは言う:

  • 物理ディスクが死んでいるか接続されていない場合は、

    mdadm /dev/mdX --fail detached --remove detached
    

1
この、コマンドが返す試みたmdadm: set device faulty failed for 8:81: Device or resource busy、8:81いるSDF(デッドドライブ)
イアン・リン

待って... raid0です。これは、アレイ全体が故障したことを意味します。このスレッドを参照してください:のmdadmはあなたがRAID0装置の構成要素を削除することはできませんので、あなたは、配列を停止する必要が linuxquestions.org/questions/linux-newbie-8/...
nsilent22

正しいが、なぜアレイが自動的に失敗としてマークされなかったのですか?RAID1アレイでドライブに障害が発生すると、mdadmは電子メールアラートを送信します。ただし、この場合、mdadmは、アレイに問題がないことを示しているため、アラートは送信されていません。
イアン陵

@IanLing:mdadmが配列が「クリーン」であると考えているのかわかりません。cat /proc/mdadmそれについて何が言いますか?
nsilent22

参照してくださいmdadm --misc --detail /dev/md4、それは示して、問題の一部をState : clean
イアン玲
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.