ディスクを削除してRAIDを縮小しますか?


13

12ベイのSynology NASがあります。最初は、単一のRAID-6ボリュームに12個すべてのディスクを割り当てることにしましたが、今ではボリュームを縮小して10個のディスクのみを使用し、2台のHDDをスペアとして割り当てたいと考えています。

ボリュームマネージャウィザードは、簡単にハードディスクを追加することで、ボリュームを拡張することができますが、私はする方法は見つかっていないハードディスクを除去することにより、ボリュームを縮小します。システム全体を再初期化せずにそれを行うにはどうすればよいですか?


ここでの目標は何ですか?現在、パリティとして2つのディスクが使用されているため、アレイは2つの障害に耐えることができます。2つのスペアが必要な場合は、それらを近くに置いて、同じ許容値を使用できますが、ディスク容量を増やします。
ポール14年

確かに、オフィスに行き、ディスクを取り出して、交換用ディスクを挿入する必要があります。予備があると、これをリモートで実行できます。
ピエールアルノー14年

SynologyにSSHを使用する場合、MDADMが組み込まれていますか?
ポール14年

はい、mdadmツールにアクセスしました。
ピエールアルノー14年

回答:


18

このため、アレイには12個のディスクがあり、それぞれが1TBの大きさであると想定します。

つまり、10TBのストレージがあります。これは、たとえば、6台以上のディスク(6TB)相当のストレージを使用していなければ、サイズは関係ありません。

免責事項:これはSynologyでサポートされていない可能性があるため、このアプローチが問題を引き起こす可能性があるかどうかを事前に確認し、事前にバックアップし、事前にSynologyサービスをシャットダウンします。Synologyは私の知る限り標準のmd raidアレイを使用します。また、mdをサポートする標準サーバーにディスクを移動するとアクセス可能になりますので、問題ありません。

概要

シーケンスは次のようになります。

  1. ファイルシステムのサイズを小さくする
  2. 論理ボリュームのサイズを小さくする
  3. 配列サイズを小さくする
  4. ファイルシステムのサイズを元に戻す
  5. スペアディスクをホットスペアに変換します

ファイルシステム

を使用してメインパーティションを見つけdf -hます。次のようになります。

Filesystem                Size      Used Available Use% Mounted on
/dev/vg1/volume_1         10T       5T   5T         50% /volume1

このコマンドを使用して、必要な最大サイズに変更します。

umount /dev/vg1/volume_1
resize2fs -M /dev/vg1/volume_1

今確認してください:

mount /dev/vg1/volume_1 /volume1
df -h

Filesystem                Size      Used Available Use% Mounted on
/dev/vg1/volume_1         5T       5T    0T        100% /volume1

ボリューム

ボリュームサイズを小さくするには、lvreduceを使用します(念のため、少し大きくします)。

umount /dev/vg1/volume_1
lvreduce -L 5.2T /dev/vg1/volume_1

論理ボリュームが削減されたので、pvresizeを使用して物理ボリュームサイズを削減します。

pvresize --setphysicalvolumesize 5.3T /dev/md0

サイズ変更に失敗した場合は、物理ボリュームの最後に割り当てられたデータの部分を先頭に移動するためのこの他の質問を参照してください。

これで、10Tアレイ上に5.3Tボリュームがで​​きたので、アレイサイズを2Tだけ安全に減らすことができます。

アレイ

mdデバイスを確認します。

 pvdisplay -C
 PV         VG      Fmt  Attr PSize   PFree
 /dev/md0   vg1     lvm2 a--  5.3t    0.1t

最初のステップは、mdadmに配列サイズを小さくするように指示することです(growを使用)。

mdadm --grow -n10 /dev/md0
mdadm: this change will reduce the size of the array.
       use --grow --array-size first to truncate array.
       e.g. mdadm --grow /dev/md0 --array-size 9683819520

これは、現在のアレイを10個のディスクに収めるために、アレイサイズを小さくする必要があると言っています。

 mdadm --grow /dev/md0 --array-size 9683819520

小さくなったため、ディスクの数を減らすことができます。

 mdadm --grow -n10 /dev/md0 --backup-file /root/mdadm.md0.backup

これには時間がかかり、ここで監視できます。

 cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md4 : active raid6 sda4[0] sdb4[1] sdc4[2] sdd4[3] sde4[4] sdf4[5] sdg4[6] sdh4[7] sdi4[1] sdj4[1] 
      [>....................]  reshape =  1.8% (9186496/484190976)
                              finish=821.3min speed=9638K/sec [UUUUUUUUUU__]

しかし、待つ必要はありません。

PV、LV、およびファイルシステムのサイズを最大に変更します。

pvresize /dev/md0
lvextend -l 100%FREE /dev/vg1/volume_1
e2fsck -f /dev/vg1/volume_1
resize2fs /dev/vg1/volume_1

スペアディスクをスペアとして設定する

ここでは何もする必要はありません。アレイ内のスペアディスクは自動的にスペアになります。再形成が完了したら、ステータスを確認します。

cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md4 : active raid6 sda4[0] sdb4[1] sdc4[2] sdd4[3] sde4[4] sdf4[5] sdg4[6] sdh4[7] sdi4[S] sdj4[S] 

これらの詳細な指示をありがとう。まず、HDDを交換した後、RAIDアレイの再構築が完了するのを待ちます(合計容量:17.86 TB、しばらく時間がかかります)。
ピエールアルノー14年


@Paul - superuser.com/questions/1274328/...のフラグを除去するためのこのコメントは、ユーザーを助けることができるかどうかを判断した後
Ramhound

気をつけて!この答えは、データ損失につながる可能性があると思います:lvm lvが実際にpvの先頭にあるかどうかのチェックはありません!(lvmでは保証されません)。参照unix.stackexchange.com/questions/67702/...(とunix.stackexchange.com/questions/67702/... PVの終わりを確実にする方法については、エラーの場合)である縮めすること自由に。
エクレグ

@Ekleogありがとう、このコメントは逃した場合の答えの一部として配置する方が良いでしょう
Paul
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.