サーバーのRAID構成のHDDの1つに障害が発生したため、アレイから取り出し、データセンターでホットスワップしました。彼らはそれをしました、しかし今、新しいドライブは/dev/sdcよりむしろです/dev/sda。サーバーを再起動すると/dev/sda再び起動するので/dev/sdcはないかと思うので、次回の再起動時に自分が陥る罠を仕掛けたくないので、アレイに追加し直すのをためらっています。必要がない場合はすぐにサーバーを再起動しません(必要な場合は、まあ、私にとってはあまりにも悪い)。
として追加した場合/dev/sdc、再起動時に問題が発生しますか?または、再起動せずにデバイス名をから/dev/sdcに変更する方法はあり/dev/sdaますか?
これはUbuntu 10.04 LTSにあります。これはmdアレイ(「LinuxソフトウェアRAID」)です。現在、デバイスの1つ(2つあります)は次のようになっています(古いもの/dev/sdaを削除したため「劣化」)。
#mdadm --detail / dev / md0
/ dev / md0:
        バージョン:00.90.03
  作成時間:2009年10月11日21:07:54
     RAIDレベル:raid1
     アレイサイズ:97536(95.27 MiB 99.88 MB)
  使用済み開発サイズ:97536(95.27 MiB 99.88 MB)
   RAIDデバイス:2
  総デバイス:1
優先マイナー:0
    永続性:スーパーブロックは永続的です
    更新時間:2011年6月30日09:31:16
          状態:クリーン、劣化
 アクティブデバイス:1
作動装置:1
 失敗したデバイス:0
  スペアデバイス:0
           UUID:496be7a5:ab9177ed:7792c71e:7dc17aa4
         イベント:0.112
    番号メジャーマイナーRAIDデバイスの状態
       0 8 17 0アクティブ同期/ dev / sdb1
       1 0 0 1を削除
          mdアレイです(「LinuxソフトウェアRAID」)。すべてのデバイスの追加/削除などはデバイス名を指しますが、それが実際にそれらに依存していることを意味するのかわかりません...または、その出力をmdadm --detail質問に追加しました。