タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

1
SSDに障害が発生し、mdadmはRAID0アレイは問題ないと考えています
Debianでmdadmを使用してRAID0アレイを作成しました。sdfは死んだドライブです。 $ cat /proc/mdstat md4 : active raid0 sdf1[1] sde1[0] 468859904 blocks super 1.2 512k chunks $ mdadm --misc --detail /dev/md4 /dev/md4: Version : 1.2 Creation Time : <...> Raid Level : raid0 Array Size : 468859904 (447.14 GiB 480.11 GB) Raid Devices : 2 Total Devices : 2 Persistence …
3 linux  debian  raid  mdadm 

4
RAID1に対するLinuxソフトウェアRAIDの堅牢性と他のRAIDレベル
RAID5アレイを実行していて、昨日セットアップしたraid1も持っています。RAID5はパリティを計算するため、1つのディスクでサイレントデータの破損をキャッチできるはずです。ただし、RAID1の場合、ディスクは単なるミラーです。考えれば考えるほど、RAID1は実際には非常に危険であると考えています。確かにそれはディスク障害から私を救うでしょうが、ディスク上のデータを保護することに関してはあまり良くないかもしれません(実際私にとってより重要です)。 LinuxソフトウェアRAIDは、実際にどのようにRAID1タイプのデータをディスクに保存しますか? どのスピンドルが破損したデータを提供しているのかをどのように知るか(ディスク(サブシステム)がエラーを報告していない場合) RAID1が実際にデータ保護を提供していないのに、ディスク保護ではなく、mdadmを使用して2つのディスク「RAID5のような」セットアップを作成できる方法がありますか?たとえば、容量がゆるいが、データに対しても冗長性を維持しますか?

0
Ubuntu mdadm RAID1のクローニング
mdadmで作成したRAID1ドライブのペアを複製したいと思います。私はClonezillaを試しましたが、mdadmのネイティブサポートがないため、ddを使用することになり、信じられないほど遅いです。私は他のオプションを探しましたが、それらのどれもClonezillaの使いやすさを持たないようです(そして、しばしば私は大丈夫ですmdadmの手動再構成が必要です)。しかし、私は何かを見逃したと思う。 私はまだミラーを壊して、新しいドライブでそれを再構築して、プレーンddよりも高速であるかどうかを確認しようとしませんでした。 RAIDドライブのイメージを作成するには何を使用しますか?

0
mdadm:ホット削除に失敗しました
RAID1が劣化しているため、/ dev / sdbを交換する必要があります。ただし、/ dev / sdb5(/ dev / md1)を失敗としてマークして削除できましたが、/ dev / sdb1(/にマウントされている/ dev / md0)で同じことはできません。 root@kes:~# mdadm /dev/md0 --fail /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0 root@kes:~# mdadm --detail /dev/md0 /dev/md0: Version : 00.90 Creation Time : Wed Apr 7 03:00:39 2010 Raid Level : raid1 Array Size : …
2 linux  raid  raid-1  mdadm 

0
冗長性:LVM + mdadmまたはLVM internal RAID
タスクは、仮想マシンイメージ用のLVMストレージを作成することです。したがって、いずれの場合でもLVMが使用されます。 LVMが冗長性を提供する2つの方法があります。 ブロックミラーリング lvcreate -m 1 --mirrorlog mirrored -n logical_volume -L 50G vg0 内部RAIDメカニズム lvcreate --type=raid1 -n logical_volume -L 50G vg0 2番目の方法では、読み取りパフォーマンスが向上します。 別の方法として、mdadmでraid1を作成し、Linux Soft RaidデバイスをLVMの物理ボリュームとして使用できます。 どちらの方が良いのですか?

1
RAID5 mdadm faulty / blk_update_request:I / Oエラー
サーバーのディスクの5つのrawイメージ(1つの外付けHDDに保存されています)があります。これらの各ディスクには"Linux raid autodetect" (fd)、RAID1(ブート関連、3つのデバイス(2つのアクティブ+ 1つのスペア))とRAID5(その他のデータ、5つのデバイス)のメンバーである2つのパーティションが含まれます。 RAIDアレイを組み立てるために実行するkpartx(またはlosetup、実際には問題ではない)を使用してデバイスをマップしましたmdadm。RAID1は正常に組み立てられ、通常の方法でマウントできます。RAID5は組み立てられています(実際、「アクティブ」、によると/proc/mdstat): すべてのデバイスは「障害あり」および「削除済み」です。 dmesg(blk_update_request: I/O error, dev loop4, sector 16)に追加のエラーが表示された後、さらにエラーが表示されmd: super_written gets error=-5ます(; md/raid:md0: Disk failure on loop5, disabling device.); RAID5アレイをマウントできません(十分に)。 私はウェブ上で見つけることができるすべての提案を試しました: --forceキーを使用->は機能しません。 使用--createして--assume-clean->は機能しません。 使用--zero-superblock(2に似ています)->は機能しません。 確認した場合--examine-すべてのメンバーデバイスが中にあるクリーンな状態、チェックサムがあり、正しいとイベント番号は等しいです。 2および3ごとに-それらのマッピングされたデバイスに書き込むことはできないようです。私はstraceD」--zero-superblockと、上のwrite()システムコール、私が得ましたEPERM (Operation not permitted)。マップされたデバイスへの書き込みを妨げるものが想像できません(lsblk --fpmRAID5デバイスは書き込み可能ですbrw-rw----)。 別の奇妙な詳細。上記I/O errorでセクター16に乗ることに言及しました。すべてのループ(マッピング)RAID5デバイスのセクター16(オフセット8192バイト)にあるものをチェックしました。マジックナンバー0x6d746962(ASCII: " bitm")で始まるようです- bitmap関連する可能性が高い: 00002000 62 69 74 6d 04 00 00 00 48 …

0
RAIDとSATAコントローラに関するたくさんの楽しい問題
私は数ヶ月前にebayから中古の3ware raidカードを購入し、RAID 5に4つの1TBキャビアブラックをセットしました。ハードウェアRAIDは書き込みキャッシュなしで約5MB / sの書き込みしか管理できず、私はUPSを持っていないので、書き込みキャッシュをオンのままにしておくのは悪い考えのようでした。そこで、私は仕事から予備の2TBドライブを借り、それに自分のデータをコピーして、新しいDebian 6インストールでmdadm raidをセットアップし始めました。これは約2週間*正常に動作していたし、それから私は読み取りエラーを取得し始めました。 mdadmは、2台のドライブが故障したと述べました。そこで私はそれをシャットダウンし、Debianインストーラを起動してsyslogを読み始めました。 私が最初に見たのはこれらの束でした。 May 18 10:31:14 osiris kernel: [937288.579972] kswapd0: page allocation failure. order:5, mode:0x4020 May 18 10:31:14 osiris kernel: [937288.579978] Pid: 47, comm: kswapd0 Not tainted 2.6.32-5-686 #1 May 18 10:31:14 osiris kernel: [937288.579981] Call Trace: May 18 10:31:14 osiris kernel: [937288.579994] [] …
1 linux  boot  sata  mdadm 

2
休止状態後のXFSメモリ内破損
ソフトウェアraid-1に存在するXFSファイルシステムで、以下のエラーが絶えず発生し、その後、3-disk raid-5に変換されました。エラーは、通常、休止状態の後、通常はすぐに、または数分後に発生します。dmesg伝えます(完全なdmesg出力はこちら:http : //bpaste.net/show/130895/): [155389.814032] PM: restore of devices complete after 1700.425 msecs [155389.814783] Restarting tasks ... done. [155390.161993] r8168: enp2s0: link up [155392.181215] r8168: enp2s0: link up [155398.859967] sd 7:0:0:0: [sdh] No Caching mode page present [155398.859972] sd 7:0:0:0: [sdh] Assuming drive cache: write through [155398.876927] sd 7:0:0:0: [sdh] …
1 raid  hibernate  gentoo  mdadm  xfs 

1
EBS mdadm raid 10アレイを成長させる方法は?
RAID 10アレイを成長させることは可能ですか?オフラインにして成長させることはできますか?または、まったく新しいアレイを作成し、すべてのデータをそのアレイにコピーする必要がありますか?
1 mdadm  raid-10 

0
mdadmパーティションが配列を結合するのに十分な大きさではありません
私はここ数年、主にデュアルブートまたは仮想マシンとしてLinuxのオンとオフを使用していましたが、開発用ラップトップを構築することに決めたとき、私は弾丸を噛んでLinuxをベースOSとして使用しました。 過去に問題が発生したため、RAIDを使用して回復力を持たせると考えていましたが、少し頭を悩ませた後、次の記事[URL = "https://wiki.debian.org/Multi%20HDD/SSD]を見つけました%20Partition%20Scheme "]マルチHDD / SSDパーティションスキーム[/ URL]。 要約すると、「ネストされた」配列を構築することをお勧めしますので、次のようなものになります md6 - /dev/sda1 - /dev/md60 md60 -/dev/sdb1 -/dev/sdc1 Ubuntu LiveCDを使用してそれを試し、アレイをうまく構築できましたが、それらにインストールするのは悪夢であり、それを機能させることはできませんでした(インストール中に失敗しました)。その後、Debianを試してみましたが、インストールされましたが、グラフィックカードのドライバーを動作させることができませんでした。 3番目のディストリビューション(suse)には、父親がいるが、RAIDをアセンブルしようとすると失敗したように見えますが。だから私は、1つのパーティションと1つのデバイスだけでトップレベルのRAID(md6)を作成することでそれを単純化したいと思います(したがって、劣化しているとは思わなかった)。 これで、Suseが完全に機能するようになりました!!! ただし、RAIDがありません。だから私は襲撃を組み立てようとしました、 mdadm /dev/md6 --add --write-mostly /dev/md60 または(誰かがこのように働いたと言ったように... mdadm --add /dev/md6 --write-mostly /dev/md60 また、-write-mostlyを使用して、使用せずに試しましたが、常に mdadm: /dev/md60 not large enough to join array mdadm --detailをざっと見てみると、次のことがわかりました... /dev/md6: Version : 1.2 Creation Time …
1 linux  raid  mdadm 

2
/ devパーティションがないため、mdadmが壊れています。Linuxにパーティションを表示させる方法は?
Linuxボックスをアップグレードし、ルートドライブを変更しました。移動した(ルートではない)3つのSATAドライブのRAID-5アレイがありました。OSを再インストールしましたが、その前後はCentOS 6.4でした。 # mdadm --assemble /dev/md1 /dev/sdc1 /dev/sdd1 /dev/sde1 mdadm: cannot open device /dev/sdc1: No such file or directory mdadm: /dev/sdc1 has no superblock - assembly aborted 確かに、/ dev / sdc1はありません。 パーティションは存在します: # fdisk -l /dev/sdc Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = …
1 linux  centos  raid  mdadm  udev 

1
QNAP TS-419U + RAID 5は再構築されていません
QNAP TS-419U +のハードディスク番号1をRAID 5に交換しました。 これは、マシンの電源を切らずにホットスワップ交換です。 新しいHDが賢いのは良かったのですが、Raid 5には追加されませんでした。 Qnapソフトウェア管理 cat /proc/mdstat Personalities : [raid1] [linear] [raid0] [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sdd3[3] sdc3[2] sdb3[1] 5855836800 blocks level 5, 64k chunk, algorithm 2 [4/3] [_UUU] md4 : active raid1 sdd2[0] sdc2[2](S) sdb2[1] 530048 blocks [2/2] [UU] md13 : active …

1
MDADMレイドリカバリと質問
私は一日中私の頭の中でこれまで作業してきました、そしてこのセットアップについてのいくつかのフィードバック/意見を得て、そしてそれが失敗したとしてもどうやって対処できるかを望みました。 私はUbuntuサーバーシステムを持っていて、そこではファイルシステムはそれ自身比較的小さなディスク上にあり、それが保存する主なデータはMDADMを使ってRAID5に設定された5つのディスクにあります。 RAIDアレイに格納されているデータの優先度は中です。機密性の高い個人ユーザーデータは存在しないため、紛失しても世界が終わるわけではありません。ただし、ドライブを増設するときには少し冗長性を確保したいので、RAID 5を選択することをお勧めします。 したがって、アレイ内のドライブに障害が発生した場合は、壊滅的な事態が発生する前に交換することができます。最初のものが交換されている間に別のドライブが故障した場合、私はただ不幸な照明のボルトに打たれました。 私が思っているのは、OSを含むドライブで何ができるかです。今、私がやっていることは、一晩に一度遠隔地にデータをバックアップするためにrsyncを使うことです。そして、週に一度、その遠隔地はファイルシステムを起動して保存します(常に最新のtarballを4つ保持します)。私の考えでは、これによりボックス間のトラフィックが最小になり、サーバーが私の家にあるため、これは良いことですが、リモート側では毎週のフルバックアップと夜間バックアップがあります。バックアップスクリプトのrsync行は次のとおりです。 rsync --info=progress2 --numeric-ids -aAXPve ssh /* <remote>:~/server_backup --exclude=~/Download/* --exclude=/dev/* --exclude=/proc/* --exclude=/sys/* --exclude=/tmp/* --exclude=/run/* --exclude=/mnt/* --exclude=/media/* --exclude=/lost+found --delete とにかく、RAIDアレイでドライブが故障しています。それは簡単で、交換してドライブを交換したことをMDADMに伝え、新しいドライブがアレイに完全に追加されるまで1〜2日待つだけで十分であることを知って満足していると感じます。私はまだファイルシステムドライブの障害に遭遇していません。私はここに私がすべきことについて意見やフィードバックを得ようとしている理由です。 私は、OS用に別の小さなドライブを追加し、RAID 1を使用して2つをミラーリングすることを検討しました。逆に、一方のドライブが完全に使用不能になれば、もう一方が私のファイルシステムを節約します。欠点は、何らかの破損がある場合、または本当に何かがおかしくなった場合、データが両方のデバイス間で直ちにミラーリングされることです。基本的に、ファイルシステムのミラー化されたセットアップ以上の増分およびフルバックアップを持つという考えが好きです。 さて、それではファイルシステムドライブが最終的に失敗するその忠実な日はどうなりますか? 私は店に行き、新しいドライブを買い、それを差し込み、そしてその後何が起こるのだろうか? ドライブにUbuntuをインストールし、rsyncコマンドを逆にする必要がありますか? 私のRAIDパーティションはどうなりますか? これは一種のラウンドアラウンドの方法を尋ねるもので、RAIDはどこにありますか メタデータ 格納されますか? OSドライブにありましたか? rsyncを介した増分バックアップを保持している私のリモートリポジトリに行ったのでしょうか。それはRAIDドライブ自体のスーパーブロックにのみ存在しますか? ファイルシステム用の新しいドライブを入手したら、Ubuntuをインストールし、それを私のサーバーに追加し直したらどうなるでしょうか。配列が見えますか? その後、すべての変更をリモートバックアップサーバーからローカルサーバーに再同期するとします。 それから 配列を見ますか? それとも、どちらの場合も間違っていますか? このドライブがついに死んだときに備えたい。私はrsyncのオフサイトバックアップをすることに熱心に取り組んできましたが、私がしてきたことのすべてが莫大な時間の浪費であるのかどうかファイルシステムを保持しているドライブの壊滅的な障害。

1
Linuxシステムを2つの外付けハードドライブ上の既存のRAID1にリンクするにはどうすればいいですか?
私は小型のHDDにDebian Linux(Wheezy)をインストールし、2つの同一の大型(2TB)HDDを追加し、RAID 1を構築しました(使用せずに) lvm を使用して mdadm。 RAIDに大量のファイルを保存しました。 私は、RAIDを乱すことなく、Linuxシステムのアップデートや交換を簡単にするために、3台目のHDDからRAIDを実行します。 小型HDDがちょうど死んだ!私はそれを交換し、Debian Wheezyを再インストールしました(大容量のドライブを取り外した状態で)。保存したファイルを乱すことなく、どうやってRAIDシステムを再接続するのですか? 更新: Jakeの役に立つアドバイスに従って、私はSATA(RAID)ドライブを接続せずに調べた。 lsblk gives: sda = sda1, sda2 (“/”), sda3 (swap), sda4 sr0 rom sr1 rom その後、2台のSATAドライブを接続した状態で再起動しました。それらは2つの異なるRAID1アレイ、20GBのうちの1つと1960GBのうちの1つを持つべきです、私はフォーマットされたext3と思います。 lsblk 今与えます: sr0 sda = sda1, sda2 (/), sda3 (SWAP), sda4 sdc = sdc1, sdc2 (md124,raid1), sdc3 (md125,raid1), sdc4 sdb = sdb1, sdb2 …

0
コンピュータがクラッシュし、レイドアレイに問題がある
私は私のホームサーバーがオフになっているのを見つけるために今日家に着いた(理由は分からない)。電源を入れ直すと、RAIDアレイはマウントできませんでした。 / proc / mdstatは次のことを示します。 Personalities : md0 : inactive sdh[7](S) sdc[2](S) sdd[1](S) sdb[3](S) sde[0](S) sdg[5](S) sdi[6](S) sdf[4](S) 39069143232 blocks super 1.2 unused devices: <none> そしてmdadm --detail / dev / md0は、実際にはraid6であると想定されている場合、raidレベルはraid0であると言います。 各ドライブのmdadm -Eを見てください。sdgを除くすべてのドライブのアレイ状態はAAAAA.AA、イベント数は191578で、状態はアクティブです。 ただし、sdgの配列状態はAAAAAAAA、イベント数は69286で、状態はクリーンです。 また、-Eに表示されているアレイUUIDは、/ etc / mdadm.confにあるアレイUUIDとは異なります。これは、以前に発生した問題のためです。 、と私は実行していたmdadm -CR /dev/md0 --metadata=1.2 --raid-devices=5 --level=6 -c512 /dev/sdb /dev/sdc /dev/sdd /dev/sdf /dev/sde …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.