サーバーのRAID構成のHDDの1つに障害が発生したため、アレイから取り出し、データセンターでホットスワップしました。彼らはそれをしました、しかし今、新しいドライブは/dev/sdc
よりむしろです/dev/sda
。サーバーを再起動すると/dev/sda
再び起動するので/dev/sdc
はないかと思うので、次回の再起動時に自分が陥る罠を仕掛けたくないので、アレイに追加し直すのをためらっています。必要がない場合はすぐにサーバーを再起動しません(必要な場合は、まあ、私にとってはあまりにも悪い)。
として追加した場合/dev/sdc
、再起動時に問題が発生しますか?または、再起動せずにデバイス名をから/dev/sdc
に変更する方法はあり/dev/sda
ますか?
これはUbuntu 10.04 LTSにあります。これはmd
アレイ(「LinuxソフトウェアRAID」)です。現在、デバイスの1つ(2つあります)は次のようになっています(古いもの/dev/sda
を削除したため「劣化」)。
#mdadm --detail / dev / md0 / dev / md0: バージョン:00.90.03 作成時間:2009年10月11日21:07:54 RAIDレベル:raid1 アレイサイズ:97536(95.27 MiB 99.88 MB) 使用済み開発サイズ:97536(95.27 MiB 99.88 MB) RAIDデバイス:2 総デバイス:1 優先マイナー:0 永続性:スーパーブロックは永続的です 更新時間:2011年6月30日09:31:16 状態:クリーン、劣化 アクティブデバイス:1 作動装置:1 失敗したデバイス:0 スペアデバイス:0 UUID:496be7a5:ab9177ed:7792c71e:7dc17aa4 イベント:0.112 番号メジャーマイナーRAIDデバイスの状態 0 8 17 0アクティブ同期/ dev / sdb1 1 0 0 1を削除
md
アレイです(「LinuxソフトウェアRAID」)。すべてのデバイスの追加/削除などはデバイス名を指しますが、それが実際にそれらに依存していることを意味するのかわかりません...または、その出力をmdadm --detail
質問に追加しました。