RAID / dev / md1が/ dev / md126として表示されるのはなぜですか?mdadm.confは無視されますか?


26

私はRAIDを作成しました:

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

sudo mdadm --detail --scan 戻り値:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

私はそれを追加しました/etc/mdadm/mdadm.conf、以下を参照してください:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 戻り値:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 戻り値:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

だから私はすべてが良いと思うし、再起動します。


再起動後、/ dev / md1は/ dev / md126になり、/ dev / md2は/ dev / md127になりました ?????

sudo mdadm --detail --scan 戻り値:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 戻り値:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 戻り値:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

すべてが失われるわけではない、私:

sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

すべてを検証します。

sudo mdadm --detail --scan 戻り値:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 戻り値:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 戻り値:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

だからもう一度、私はすべてが良いと思うと私は再起動します。


繰り返しますが、再起動後、/ dev / md1は/ dev / md126になり、/ dev / md2は/ dev / md127になります ?????

sudo mdadm --detail --scan 戻り値:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat 戻り値:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md 戻り値:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

ここで何が欠けていますか?

回答:


26

ここで答えが見つかりました。RAIDはmd0ではなくmd127から始まります。要するに、私は/etc/mdadm/mdadm.confの定義を以下から切り取りました。

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

に:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

そして走った:

sudo update-initramfs -u

私はこれに関する専門家とは程遠いですが、私の理解はこれです...

カーネルは、アレイを組み立てる通常の時間より前にアレイを組み立てました。カーネルがアレイを組み立てるとき、mdadm.confを使用しません。パーティションはカーネルによって既にアセンブルされているため、mdadm.confを使用する通常のアレイアセンブリはスキップされました。

呼び出しsudo update-initramfs -uにより、カーネルはシステムを再度調べて、起動方法を見つけます。

より良い知識を持つ誰かが私を修正する/これについて詳しく説明するだろうと確信しています。

次の行を使用して、システムに存在する各カーネルのinitrdを更新します。

sudo update-initramfs -k all -u

3
はい、実際にこれはカーネルのinitrdを再作成し、MD-RAID構成に関連する構成ファイルを含めます。これは、デバイスが作成された時点で、カーネルは設定に従ってデバイスに名前を付ける方法を知っていることを意味します。良いキャッチ。+1 ... btw:これはリンクされたフォーラムのトピックでも説明されていることに気付きました。
0xC0000022L

ちょっと、この答えは私のArch Linuxシステムの遅いRAID初期化問題を解決しました。起動中にRAID0アレイを起動して実行するには5秒かかります。説明に従ってmdadm.confを変更し、mkinitcpioを実行した後、ごくわずかな時間しかかかりません!
rep_movsd

これなしで起動するUbuntu 12.04(Mint 13)を取得できませんでした。ルートFSをinitramfsシェルからマウントすることもできませんでした。マウントしようとするdm-linearエラーと「bad superblock」エラーがたくさんありました。また、md0デバイスの名前を0に、md1デバイスの名前を1に変更しました。これも必要かどうかわかりません。
cmcginty 14年

6
sudo update-initramfs -u

それを修正するために必要なすべてでした。/etc/mdadm/mdadm.confでは何も編集しませんでした。


1

同じ問題がありました。

この解決策は私の問題を解決しました:http ://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/


4
Ask Ubuntuへようこそ。回答のリンクから関連する手順を含めてください。
chaskes

0

次の方法で問題を再現できました。

「ソフトウェアアップデーター」がパッケージ(Ubuntuベースを含む)とカーネルを更新するかどうかを尋ねたとき、私は言った:OK。新しくインストールされたカーネルは現在のカーネル/システムの設定を使用しました。新しいRAID設定で再起動すると、新しいカーネルはRAIDについて何も知らず、md127という名前を付けました。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.