タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

8
各ブート後にmdadmでRAIDを自動アセンブルするにはどうすればよいですか?
を利用して、RAID(ミラーリング)を作成しましたmdadm。ただし、起動するたびに次のコマンドを実行する必要があります。 mdadm --stop --scan // to stop /dev/md127 - I don't know where the number 127 even comes from mdadm --assemble --scan // to start /dev/md0 何が間違っているのですか、ブート時にこれらのコマンドを実行する必要があるのはなぜですか?各(再)ブートでRAIDを自動起動する正しい方法は何ですか?

9
非アクティブなRAIDデバイスを再び機能させる方法は?
起動後、RAID1デバイス(/dev/md_d0*)が時々おかしい状態になり、マウントできません。 *もともと私は作成しました/dev/md0が、どういうわけか自分自身をに変更しました/dev/md_d0。 # mount /opt mount: wrong fs type, bad option, bad superblock on /dev/md_d0, missing codepage or helper program, or other error (could this be the IDE device where you in fact use ide-scsi so that sr0 or sda or so is needed?) In some cases useful info is …

4
RAID 1はLinux mdadmでパフォーマンスを向上させますか?
2TB HDDを搭載した安価な2ベイNASがあります。ディスク障害に対して堅牢にするために、2台目の2TB HDDを購入し、Linux mdadmでRAID1に入れることを考えています。ファイルシステムはext4です。 これにより、NASのパフォーマンスが向上または低下しますか?読み取りまたは書き込みのパフォーマンスはどうですか? このオンラインについて多くの意見があるようですが、コンセンサスはありません。 ありがとう。 編集: したがって、すでに「かなり速い」、「気づかない」、「パフォーマンスが低下する」という3つの異なる答えがあります。(主に読み取りパフォーマンスに興味があります。)ウィキペディアによると、「読み取りパフォーマンスは、コピー数の線形倍数としてほぼ上昇する可能性があります」。どちらですか? 編集2: MDのマンページを含むRAID1の読み取りパフォーマンスの向上をサポートする証拠が見つかりました。 変更はすべてのデバイスに並行して書き込まれます。データは任意の1つのデバイスから読み取られます。ドライバーは、パフォーマンスを最大化するためにすべてのデバイスに読み取り要求を分散しようとします。 また、MDのRAID10を発見しました--layout=f2。これは、RAID1の冗長性とRAID0の読み取りパフォーマンスを提供し、2台のドライブでのみ使用できます。ただし、シーケンシャル書き込みでは、ドライブの離れた部分を行き来する両方のドライブが関係するため、書き込みパフォーマンスは低下します。man md詳細については。

4
MDデバイスの名前を変更する方法(mdadm)
mdadm -Esvの出力は次のとおりです。 ARRAY / dev / md127 level = raid0 num-devices = 2 UUID = d89d9d45:9a420812:c44c77eb:7ee19756 devices = / dev / sdb8、/ dev / sda8 これはv0.90配列です。質問は次のとおりです。mdadmは、対応するデバイスの名前をどのように割り当て、どこに保存し、どのように変更しますか? 私が達成したいのは、md127の名前を自分の好みとは異なる名前に変更することです。

9
シンプルmdadm RAID 1がスペアをアクティブ化しない
Ubuntu 12.04 LTS Precise Pangolin を使用して呼び出されるRAID 1アレイに2つの2TB HDDパーティション(/dev/sdb1および/dev/sdc1)を作成しました。/dev/md0mdadm sudo mdadm --detail /dev/md0両方のドライブをアクティブ同期として示すために使用されるコマンド。 次に、テストのために、失敗し/dev/sdb1、それを削除し、コマンドで再度追加しましたsudo mdadm /dev/md0 --add /dev/sdb1 watch cat /proc/mdstat アレイの再構築の進行状況バーが表示されましたが、それを何時間も見ていなかったので、ソフトウェアが何をしているのか知っていたと思いました。 進行状況バーがcat /proc/mdstat表示されなくなった後、次が表示されます。 md0 : active raid1 sdb1[2](S) sdc1[1] 1953511288 blocks super 1.2 [2/1] [U_] そしてsudo mdadm --detail /dev/md0示しています: /dev/md0: Version : 1.2 Creation Time : Sun May 27 11:26:05 …
24 linux  raid  raid-1  mdadm 

3
MDADM RAID5アレイを再アクティブ化するにはどうすればよいですか?
サーバーを解体し、再接続する必要がありました。そうすると、MDADM RAID5アレイの1つが非アクティブとして表示されます。 root@mserver:/tmp# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md1 : active raid5 sdc1[1] sdh1[2] sdg1[0] 3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S) 3907039744 blocks unused devices: <none> すべてのディスクが見つかったように見えますが、何らかの理由でそれらを使用したくありません。 (S)ラベルは何を意味し、MDADMにアレイの使用を再開するように指示するにはどうすればよいですか? [編集]を停止して、配列を組み立ててみました-v: root@mserver:~# mdadm --stop …

6
RAID 10アレイへのドライブの追加
mdadmを使用してRAID10アレイを拡張するにはどうすればよいですか? 明らかに、一度に2つのドライブを追加する必要がありますか、それとも4つのドライブでなければなりませんか? 私はそれがちょうど悪い考えだと感じています。 それともRAID5を選ぶ方が賢明でしょうか?
11 raid  mdadm  raid-10 

2
mdadm raid10上のBtrfs、またはベアデバイス上のbtrfs raid10?
で管理されているRAID10があり、そのmdadm上にEXT4ファイルシステムがあります。しかし、私はBTRFSが好きで、EXT4ファイルシステムをBTRFSに変換したいのですが、パフォーマンスと保守性について考えていました。BTRFSの例では、mdadmでできるように、アレイから別のディスクを削除または追加したときに、ステータスを簡単に確認できません(または、おそらく方法がわからないだけです-BTRFSドキュメントを検索してこれを見つけることができませんでした) )。 だから、あなたの経験から、より良い選択は何ですか: 単にEXT4ファイルシステムを変換し、mdadmにRAID10を管理させるだけですか? mdadmを取り除き、BTRFSにすべてを実行させるには?
9 linux  mdadm  btrfs 

2
空のドライブでのmdadm RAID Fast Setup?
mdadmを使用して、一部のRAID5ディスクをRAID6として再作成しています。気になるドライブのデータはありません。 RAIDのセットアップには形状のセットアップに時間がかかります-ストライプ化およびパリティー計算が必要なデータがある場合は受け入れますが、これらのドライブでは空であるか、少なくとも空であると見なします。 パリティの計算をスキップして、スーパーブロックを設定して実行するようにmdadmに指示する方法はありますか。それ以外の場合、移動するデータがないときに、この時間を正確に何に費やしているのでしょうか。 md3 : active raid6 sdf3[5] sde3[4] sdd3[3] sdc7[2] sdb3[1] sda3[0] 1953114112 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU] [>....................] resync = 1.3% (6790144/488278528) finish=409.3min speed=19604K/sec --assume-clean正しいとわかっているRAIDアレイを含む既存のディスクのセットからアレイを再構築している場所については話していません。空と見なされるべき配列、正しくストライプされていないと見なされるべき配列について話している。 したがって、この質問のために、デバイスにゼロが事前に入力されているとしましょう。

3
md-software-raidのハードディスクをスタンバイにしても安全ですか?
md-raidに6台のデスクトップハードディスクを備えたホームファイルサーバーがあります。 サーバーは頻繁にアクセスされないので、ハードドライブがアイドル時間(たとえば、hdparm -Sまたはhd-idleコマンドを使用)の後にスタンバイモードに入るとよいと思います。 mdadmを使用している場合、これは安全ですか、それともエラー/ハードディスクの劣化の原因になりますか
9 linux  raid  mdadm 

2
mdadm RAID1で基礎となるパーティションのサイズを変更する
私は自家製のNASを使用しており、ドライブの使用の一部を少し再構成する必要があります。 2つの3TBドライブで構成されるmdadm RAID1があります。各ドライブには、ドライブ全体を使用する1つのext3パーティションがあります。両方のドライブのext3パーティションを縮小し、2番目の8GB程度のext3パーティションを1つに追加し、同じサイズのパーティションをもう1つにスワップする必要があります。手順はわかったと思いますが、確認が必要です。 mdadm RAIDのサイズを変更しますresize2fs /dev/md0 [size]。サイズは、ドライブで現在使用されているスペースよりも少し大きくなります。 RAIDからドライブの1つを取り外します mdadm /dev/md0 --fail /dev/sda1 取り外したドライブをpartedでサイズ変更します 新しいパーティションをpartedでドライブに追加します ドライブをRAIDに復元する mdadm -a /dev/md0 /dev/sda1 他のデバイスに対して2〜5を繰り返します。 フルパーティションを使用するようにRAIDのサイズを変更する mdadm --grow /dev/md0 -z max 私が見逃した、または考慮していないことはありますか?
9 ubuntu  ext3  mdadm 

5
RAID-10アレイ内でミラーリングされているドライブを見つける必要がある
openSUSE 12.2でホームメディアサーバーを実行しています。RAID-10構成で8つの2TBドライブを使用しています。私は故意に2種類のドライブを購入しました。4つはSeagate Barracuda Greenで、もう4つはWestern Digital Redです。私の目標は、アレイ内のミラーリングされた各ペアが異なるドライブ(つまり、1つのSeagateドライブと1つのWDドライブ)で構成されるようにRAIDを構成することです。残念ながら、YaST2 Partitionerはアレイの構造でこのレベルの選択を提供しなかったため、デフォルトのRAID10構造がどのように見えるかを調べようとしています。 私は次のことを知っています: sdc、sdd、sde、sdfはすべてWDドライブです sdg、sdh、sdi、sdjはすべてSeagateドライブ RAIDを作成するときに、デフォルトの「n2」レイアウトを選択しました。これらの2つのソースからの情報に基づく私の推測は、隣接するドライブがミラーリングされている(つまり、sdc == sdd、sde == sdfなど)と思いますが、確実に知りたいです。 http://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10 /server/200725/mirrored-and-stripped-hd-drives-in-raid10 以下は、「mdadm --detail / dev / md0」の出力です。 /dev/md0: Version : 1.0 Creation Time : Sat Mar 16 12:55:11 2013 Raid Level : raid10 Array Size : 7814045696 (7452.05 GiB 8001.58 GB) Used Dev Size …

3
アクティブパーティションとスペアパーティションを持つRAID1
UbuntuシステムのRAID1ソフトウェアRAIDパーティションで次の問題が発生しています(重要な場合は、10.04 LTS、2.6.32-24サーバー)。 私のディスクの1つ(sdb5)がI / Oエラーを報告したため、アレイで障害があるとマークされました。その後、アレイは1つのアクティブデバイスで劣化しました。したがって、私はハードディスクを交換し、パーティションテーブルを複製し、すべての新しいパーティションをRAIDアレイに追加しました。すべてのパーティションを同期した後、そのうちの1つを除いて、アクティブなデバイスが2つある状態で問題なく終了しました。ただし、以前に障害のあるディスクを報告したパーティションには、新しいパーティションがアクティブデバイスではなくスペアディスクとして含まれていました。 md3 : active raid1 sdb5[2] sda5[1] 4881344 blocks [2/1] [_U] 詳細な外観は明らかにします: root@server:~# mdadm --detail /dev/md3 [...] Number Major Minor RaidDevice State 2 8 21 0 spare rebuilding /dev/sdb5 1 8 5 1 active sync /dev/sda5 それで、ここに質問があります:raidにスペアディスクをアクティブなディスクに変えるように伝えるにはどうすればよいですか?そして、なぜそれがスペアデバイスとして追加されたのですか?これはルートパーティションであるため、アレイを再作成または再構築することはできません。そして、私はSoftware Raid HOWTOでその主題のヒントを見つけることができません。 任意の助けいただければ幸いです。 現在のソリューション 私は自分の問題の解決策を見つけましたが、これが実際の方法かどうかはわかりません。私のレイドを詳しく見てみると、sdb5は常にスペアデバイスとしてリストされていることがわかりました。 mdadm --examine /dev/sdb5 [...] …

1
LVM:PVとLV破損の可能性からの回復をどのように試みるべきですか?
これは私の自宅のファイル保存設定でした。 RAID設定は冗長性を目的としているため、バックアップはありません。私は何が起こったのか説明せず、代金を払っています。セットアップ: Ubuntu 16.04 mdadm(4 x 2 TB)を使用した4ディスクRAID 5アレイ:/ dev / md0 アレイ上では、LVMによって管理されるPVとLV。 vg0という名前の論理ボリューム上のXFSファイルシステム。 / etcと/ bootを含むLinuxホストは別のディスクにインストールされており、完全にアクセス可能です(したがって/ etc / lvm / archiveにアクセスできます)。 RAIDアレイは純粋にファイルストレージです。ブートプロセスは/ etc / fstabのエントリ以外には依存しません。 どういうわけか私が理解するのに苦労していたFreeDOSインストーラから起動しました。覚えているわけではありませんが、このボリュームを再分割するように言ったのかもしれません。いずれにせよ、私がLinux(Ubuntu 16.04)を再起動したとき、私はrootユーザーとしてリカバリモードのプロンプトに落ちました。 / etc / fstabに定義されているボリュームグループのUUIDをマウントできませんでした。 このRAIDアレイを最初にセットアップしてから、LVMの機能を完全に忘れたか、ボリュームの作成にLVMを使用したことさえあるので、十分な長さがあります。 (10 - 12年、その間に時々ハードディスクを交換し、アレイのサイズを変更することもありました。)それで、最初にtestdiskを使おうとしました。 1 ]をクリックしてパーティション情報を見つけて復元します。これは決してうまくいきませんでした、パーティションは常に不正確なサイズ(4.5TBの代わりに524Gb)であり、そして決して「物理的セクター境界」上にありませんでした。パーティションを完全に復元するための魔法の組み合わせがあると考えて、さまざまなジオメトリを試しました。これはfdiskに従ったディスクの現在のステータスです: $ sudo fdisk -l /dev/md0 GPT PMBR size mismatch (1098853631 != 200894463) …

1
データを失うことなくLVM / EXT4をZFSに変換
2 x 3TBドライブを搭載したホームメディアサーバーがあります。現在mdraid(1)、LVMおよびEXT4を使用して設定されています。セットアップはncurses Ubuntuサーバインストーラを使って行われました。 ゴール セットアップをZFS(RAIDZ)を使用するように変換し、3台目の3TBドライブを追加します。オンザフライでの圧縮と重複排除を有効にしたいです。変換はUbuntuとすべてのパッケージの再インストールを必要とするべきではありません。データの損失があってはいけません(もちろんディスクがクラッシュしない限り)。 どうやってこれをやるの? ボーナスの質問ですが、これはbtrfsを使用したほうがよいのですが、1つのディスクでアレイを初期化し、データをコピーしてから2つ目のディスクをztrfsではなくbtrfsで追加できます。 私の/ proc / mdstat: Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md4 : active raid1 sdb2[1] sda2[0] 2930070069 blocks super 1.2 [2/2] [UU] unused devices: <none> 私のPV - V Scanning for physical volume names PV VG Fmt Attr PSize …
3 raid  lvm  mdadm  zfs 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.