タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

2
ディスクの表示サイズをアップグレードするときにRAIDを拡張/サイズ変更
最初は、ディスクあたり2TBしかアドレスできないコントローラーを使用してソフトウェアRAIDを作成しました。ディスクは3 TBのディスクです。正常に機能しましたが、各ディスクの最初の2TBのみを使用しました。 コントローラーを変更して、3TB全体を表示しました。したがって/dev/md0、最後の1 TBも使用したいと思います。 私が試してみました: # mdadm --grow /dev/md0 --size=max mdadm: component size of /dev/md0 has been set to 2147479552K しかし、ご覧のとおり、2TBしか見えません。私がそれをより強く強制しようとすると: # mdadm --grow /dev/md0 --size=2147483648 mdadm: Cannot set device size for /dev/md0: No space left on device したがって、システムはどういうわけかディスクが3TB(で/proc/partitions)であることを認識できますが、RAIDはそれらを3TBとして認識できません。 mdadmの詳細: # mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time …

1
mdadmでUUIDを使用する
パーティション分割スキームとしてGPTを使用しています。パーティションのUUIDを確認します。 # ls -l /dev/disk/by-partuuid/ total 0 lrwxrwxrwx 1 root root 10 Oct 18 22:39 0793009a-d460-4f3d-83f6-8103f8ba24e2 -> ../../sdb3 lrwxrwxrwx 1 root root 10 Oct 18 22:39 13f83c47-ad62-4932-8d52-e93626166e7f -> ../../sdc3 lrwxrwxrwx 1 root root 10 Oct 18 22:39 1b247b1f-0b7b-419e-bc3b-0f90cbadb87c -> ../../sdc2 lrwxrwxrwx 1 root root 10 Oct 18 22:39 224d5933-7a23-4833-b785-79a67c9b9306 -> …
10 mdadm  gpt 

1
/etc/mdadm.confを使用せずに特定のRAIDアレイを組み立てる方法
mdadmとそのスキャン機能を使用して特定のRAIDアレイを組み立てることはできますが、構成ファイルは必要ありませんか? 背景: カスタムセットアップのinitramfsを使用してシステム(dm-cryptなど)をセットアップしています。すべてはinitスクリプト内で行われ、構成されています。それが、私がそれを保持したい方法です。つまり、追加の構成ファイルはありません。 私の目標: initスクリプト内で、コマンドラインのみを使用して特定のRAIDアレイを1つ組み立てたいと思います。アレイはUUIDで識別され、mdデバイス名が指定され、アレイメンバーをスキャンする必要があります(たとえば、接続されているUSBスティックまたは故障したデバイスが/ dev / sdX名を台無しにするため)。他のすべてのデバイスと潜在的なRAIDアレイは無視されます。これは、ブート時にその1つのアレイのみが対象となるためです(ルートファイルシステムを実行します)。 mdadmのmanページを徹底的に読み、いくつかのテストを実行した結果、次のことがわかりました。 mdadm --assemble --uuid <uuid> /dev/md0 これは機能しているようですが、これは正しい方法ですか? manページから: 正確に1つのデバイスがリストされているが、-scanが指定されていない場合、mdadmは--scanが指定されているかのように動作し、識別情報が構成ファイルから抽出されます。
9 raid  mdadm  initramfs 

2
異なる速度のディスクにまたがるファイルシステムで書き込みキャッシュはどのように機能しますか?
複数のディスクと、低速(HDD)ドライブと高速(SSD)ドライブの両方にまたがるソフトウェアRAIDを備えた最新のLinuxシステムでは、ファイルシステムへの書き込みはどのようにキャッシュされますか? MD-RAID RAID1の配列は次のようにディスクを構成することができる--write-mostlyと--write-behindそれが速いディスクから実行される読み出しを示唆している、より遅いディスクへの書き込みが遅れることができます。しかし、それはカーネルレベルでどのようにキャッシュされるのでしょうか。カーネルは、md-raidレイヤーの前または後にディスク書き込みをキャッシュしますか?write()呼び出しの最後に、データが非--write-behindディスクの1つに書き込まれることが保証されていますか? 以下のためにbtrfsRAID1どのように同じような状況が出て遊ぶでしょうか?--write-behind機能がないため、ダーティページはデバイスレベルまたはファイルシステムレベルでカウントされますか?write()はどの時点で戻りますか? vm.dirty_*ratio調整パラメータはこれらの設定にどのように影響しますか?

1
update-grubでのgrubエラー「余分なRAIDメンバー」
私のシステム(wheezy / sid:2.6.32-5-amd64#1 SMP x86_64 GNU / Linux)は問題なく実行されています-いくつかのメッセージの意味がわからないだけです。システムで2つのmdraidアレイが実行されています。ここにありcat /proc/mdstatます: Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active (auto-read-only) raid5 sda3[0] sdc3[3] sdb3[1] 823103488 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] md0 : active raid1 sda2[0] sdc2[2](S) sdb2[1] 72628769 blocks super 1.2 [2/2] [UU] /dev/md0as /と/dev/md1as …
9 debian  grub2  mdadm 

3
mdadmで劣化したRAIDアレイの上にLVM物理ボリュームを縮小し、スペアを追加して再構築する
私はDebian WheezyRAID-1に500ギガバイトのHDDのカップルを備えたシステム(mdadmの上にミラー)は、座っているLVM5つのパーティションと論理ボリューム(boot、root、usr、var及びtmp、47.15ジブの合計サイズ)。物理ボリュームの418.38 GiBは無料です。GRUB両方のドライブにインストールされています。 HDDの1つに障害が発生し、アレイは劣化しましたが、データは損なわれていません。 私が欲しいのは、システムを最初から再インストールする必要なしに、これら2つのHDDをすべて80 GB SSDに交換することです。ここでの微妙な点は、LVM物理ボリュームをSSDのサイズに一致させるために縮小する必要があるが、論理ボリュームが連続していない(最初は空き領域が多い)ため、物理ボリューム内の論理ボリュームを何らかの方法で移動する必要がある。そしてlvmove、Debian にはコマンドがありません。 どうすればこれを達成できますか? いくつかのコンソール出力: バージョン: root@wheezy:~# uname -a && mdadm --version && lvm version Linux wheezy 3.2.0-4-amd64 #1 SMP Debian 3.2.63-2+deb7u1 x86_64 GNU/Linux mdadm - v3.2.5 - 18th May 2012 LVM version: 2.02.95(2) (2012-03-06) Library version: 1.02.74 (2012-03-06) Driver version: 4.22.0 アレイの詳細: root@wheezy:~# mdadm …
8 debian  lvm  mdadm 

4
高可用性ソフトウェアRAID 1サーバーでsmartd(smartmontools)を使用してディスクの状態を監視する
私は3つの同一のSATA / 600 3TBドライブを搭載したサーバーを持っています:/dev/sda、/dev/sdb、/dev/sdc。ドライブは、それぞれ3つのパーティションを持つGPTを使用してパーティション化されます。 1 MB:ブートローダー用の予約済みパーティション 1 GB:RAID1 / dev / md0(ext2(/ boot)) 3 TB:RAID1 / dev / md1(暗号化されたボリューム(LVM(ボリュームグループ(スワップ、/、/ etc、/ home ...)))) 3つのドライブの1つはホットスペアで、他の2つはRAIDセットでアクティブです。それは正常に動作し、単一のHDDを取り外した後で起動できます。私が使用したいとしてsmartd(のsmartmontoolsの一部を)(私が使用して監視しているsyslogにドライブとレポートエラーの状態を監視するためにlogcheckのを)。このサーバーはできるだけ高い可用性を備えている必要がありますが、テスト中にパフォーマンスが低下することは許容されます。 これは次の出力ですsmartctl -a /dev/sda: smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF INFORMATION SECTION === Device Model: WDC WD30EZRX-00MMMB0 …

2
mdadmの「スペア」番号は何を意味しますか?
次のコマンドを使用して、6台のハードドライブからmdadmベースのRAID 5を作成しました。 # mdadm --create /dev/md0 --level=5 --raid-devices=5 \ /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 \ --spare-devices=1 /dev/sdg1 アレイには1つのホットスペア、つまり/ dev / sdg1が必要でした。ただし、チェックするとmdadm --detail2つのスペアが表示されます。 # mdadm --detail --scan ARRAY /dev/md0 metadata=1.2 spares=2 name=... また、に示されているアレイサイズdfは2 TBであり、これは使用中の500 GBドライブのうち4つだけに相当します。 では、正確にはどのような意味--spare-devicesですか?マニュアルページには、「初期アレイのスペア(eXtra)デバイスの数を指定します」と記載されていますが、ここではそうではありません。

2
Ubuntu:mdデバイスは起動時にどのように組み立てられますか?
mdUbuntuの起動時にデバイスはどのように組み立てられますか?で/etc/mdadm/mdadm.conf、本当にここでは関係要因? 私mdadm.confは健全で、レスキューCD環境にいる間に確認しました。実行mdadm -A --scanすると、必要に応じてデバイス名が検出され、割り当てられます。にmdadm.confはAUTO -all、配列の組み立てからすべての自動性を取り出すためのものが含まれています。 私がする必要があるのは、起動時にmd概説さmdadm.confれているようにデバイスを自動組み立てできるようにすること、または組み立てるときにsuper-minor0.9アレイの値と1.2アレイのname(どうやら<hostname>:<super-minor>)を尊重し、なしで正しいことを行うことmdadm.confです。私はどのパズルのピースが欠けていますか? 次の問題があります。mdRAID1(md0とmd1)を備えた2つのデバイスとRAID6(md2)を備えた1 つのデバイスがあります。目的のデバイス名でそれらを参照しています。md0メタデータバージョン0.9があり、他の2つはバージョン1.2です。md0へのマップ/と他の2つは、ブートには関係ありません。 ブートドライブはGPTパーティションです。その上に接着剤「BIOSブートパーティション」(sda1)があります。grub-install --no-floppy /dev/sda成功を報告します。 md0 == sda3 + sdb3 md1 == sda2 + sdb2 md2 == sdc + sdd + sde + sdf + sdg + sdh sda1そしてsdb1、各「BIOSブートパーティション」です GRUB2は幸せです/boot/grub/devicemap、私はそれを与えたと私は追加part_gpt、raid、mdraid09およびext2GRUB2にプリロードをモジュールに。 まだレスキュー環境にルートボリュームが残っているので、すべてをマウントして、そこにchroot編集しました。 mkdir /target mount /dev/md0 /target mount -o bind /dev /target/dev mount -o bind …
8 linux  ubuntu  grub2  mdadm  initrd 

1
壊れたソフトウェアRAID5アレイを回復するにはどうすればよいですか?
不正解です。RAID5アレイで電源障害が発生したため、ドライブ間でメタデータに一貫性がなくなりました。 太い指が原因でパラメーターが欠落せずに--createコマンドが実行されたことを除いて、ここで アドバイスに従いました。さまざまな組み合わせで置換されるPerlスクリプトを実行すると、アレイをマウントできなくなります。いくつか質問があります。 私は完全にここにねじ込まれていますか、他に何かできることはありますか?ドライブ自体は問題ないようです。欠落しているパラメーターは、データを回復する可能性がありますか? とにかくいくつかのデータを取得できますが、ドライブをマウントしますか?データがディスク間でどのようにストライプ化されるかについてはあまり詳しくないので、一部のファイルを回復できるかどうかはわかりません。

6
ソフトウェアParity-RAID(例:RAID5)の長所と短所
最近、不揮発性キャッシュのないパリティRAIDに関するいくつかの問題について知らされました。より高価なHWコントローラーには、電源障害が発生した場合に書き込み操作を完了するためのバッテリー駆動のキャッシュがあります。さて、一部の人々は、このような障害は、おそらく劣化したアレイと組み合わされて、ファイルシステム全体を殺す可能性があると言います。他の人たちは、これらの問題は時代遅れである、および/または誤解であると主張しています。 残念ながら、ハードリファレンスを提供したり、md RAIDや不揮発性キャッシュを検索したり、ビットマップキャッシュを検索したりしても、md-RAID5が推奨されるかどうかについて信頼できる回答が得られません。 それに関する情報はありますか?
8 raid  mdadm  raid5 

1
mdadm Raid5はスペアの欠落イベントを提供します
Debianテスト(Wheezy)でraid5アレイを正常に構築しました。manページなどでさらに説明されているように、アレイは非同期アレイとして作成され、新しいスペアが修復のために挿入されます。それはうまくいきました。しかし、再構築プロセスの後、スペアが欠落しているというメッセージが毎日表示されますが、アレイはスペアなしの 3ディスク以上のraid5である必要があります。私はmdadmにスペアがないこと、そしてあるべきであることを伝えるだけでよいと思いますが、どうすればよいですか? mdadm -D 与える Active Devices: 3 Working Devices: 3 Failed Devices: 0 Spare Devices: 0 そして/proc/mdstat読む md1: active raid5 sda3[0] sdc3[3] sdb3[1] ##### blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] 何か案は?

1
UbuntuでRAIDアレイを自動的に構築するだけで使用する方法は?
Ubuntu 16.06システムがあり/、SSDプライマリパーティションにあり/home、4つのSSDデバイスにmd RAID0があります。ファイル/etc/mdadm/mdadm.confは自動的に生成さmkconfれ、デバイスもアレイも含まれません。私が持っUUID=<uuid for fs> /home ext4 defaultsている/etc/fstab、それはRAIDを組み立てるのに十分です。システムは正常に起動し、RAIDを正しく組み立てて、期待どおりにマウントします。ただし、パッケージをアップグレードupdate-initramfsすると、常に警告が表示されます W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. /etc/fstabファイルシステムUUID のみを含む全自動RAIDアセンブリを使用し続け/home、警告メッセージを回避するにはどうすればよいupdate-initramfsですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.