Debianでmdadmを使用してRAID0アレイを作成しました。sdfは死んだドライブです。
$ cat /proc/mdstat
md4 : active raid0 sdf1[1] sde1[0]
468859904 blocks super 1.2 512k chunks
$ mdadm --misc --detail /dev/md4
/dev/md4:
Version : 1.2
Creation Time : <...>
Raid Level : raid0
Array Size : 468859904 (447.14 GiB 480.11 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : <...>
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Name : server:4 (local to host server)
UUID : <...>
Events : 0
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 81 1 active sync
$ file /dev/sdf
/dev/sdf: ERROR: cannot open `/dev/sdf' (No such file or directory)
$ tail /var/log/messages
Feb 24 08:03:32 server kernel: [33166523.696833] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 50 00 00 30 00
Feb 24 08:03:32 server kernel: [33166523.696903] sd 0:0:5:0: [sdf] Device not ready
Feb 24 08:03:32 server kernel: [33166523.696906] sd 0:0:5:0: [sdf] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Feb 24 08:03:32 server kernel: [33166523.696909] sd 0:0:5:0: [sdf] Sense Key : Not Ready [current]
Feb 24 08:03:32 server kernel: [33166523.696912] sd 0:0:5:0: [sdf] Add. Sense: Logical unit not ready, cause not reportable
Feb 24 08:03:32 server kernel: [33166523.696916] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 90 00 00 08 00
注意事項:
/ var / log / messagesのメッセージは、数分間にわたって数百回繰り返され、その後停止します。
mdadmは、アレイが故障したとは考えません。
mdadm --misc --detail /dev/md4
/ dev / sdf1があるはずの場所の下部にある空白の場所。ブロックデバイス/ dev / sdfはもう存在しません。
/ dev / sdfが存在しないため、アレイ内でドライブを手動で故障とマークすることはできません。
アレイが正常であるとmdadmが判断した結果、ドライブが故障したというアラートを受け取ることはありませんでした。これが起こる原因は何ですか?
mdadm: set device faulty failed for 8:81: Device or resource busy
、8:81いるSDF(デッドドライブ)