タグ付けされた質問 「software-raid」

2
LVMとMDRAIDのRAID-長所と短所?
では質問「混合RAIDタイプ」への彼の答え、HBruijnは、より標準的なMDRAID対RAIDを実装するためにLVMを使用することを提案しています。 少し調査した結果、LVMはRAID機能もサポートしているようです。過去に、MDRAIDの上でLVMを使用しましたが、これまでLVMがRAID機能もサポートしていることを知りませんでした。これは比較的最近の開発のようですが、いつ実装されたかは正確にはわかりません。 したがって、これらはLinuxでソフトウェアRAIDを実装する代替方法です。これら2つの異なるアプローチの長所と短所は何ですか?人々がどちらがより良いかを判断できるように、2つのアプローチの機能比較を探しています。実験に基づいた結論(この機能は、この機能と同じようには機能せず、その理由もあります)も、データを回答に含めればOKです。 対処すべき特定の問題: sw RAID + LVMを実行したいとします(一般的なシナリオ)。sw RAIDのLVMのサポートを使用する必要があり、したがって2つではなく1つのユーティリティを使用する必要がありますか?この統合されたアプローチには利点がありますか? sw RAIDのLVMサポートは、より成熟したMDADMと比較して大きな欠陥がありますか?具体的には、sw RAIDのLVMサポートはどの程度安定/バグフリーですか?このサポートは2011年(下記参照)にのみ遡りますが、MDADMははるかに古いようです。また、機能セットの点ではどのように比較されますか?MDADMと比較して、機能に重大な欠陥がありますか?逆に、MDADMにはないsw RAID機能はサポートされていますか? ノート: 詳細な議論は http://www.olearycomputers.com/ll/linux_mirrors.htmlにありますが、それが書かれた日付を知ることができませんでした。 Serverfaultに関する同様の質問:linux LVM mirror vs. MD mirror。ただし、この質問は2010年に行われたものであり、回答は古くなっている可能性があります。 バージョン2.02.87の変更ログエントリ-2011年8月12日 MD RAID 1/4/5/6サポート用の新しいsegtype 'raid'にconfigure --with-raidを追加 そのため、LVMでのRAIDサポートは約3年前のようです。
51 lvm  raid  software-raid  md 

4
パーティションまたはディスク全体を直接使用してmdadmアレイを作成することの違いは何ですか
mdadmパーティションまたはディスク全体を直接使用してアレイを作成することの違いは何ですか?ドライブ全体を使用するつもりだとします。GPTを使用していることに注意してください。 次の2つの方法で作成されたRAID6を想像してください。 mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 または: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd 違いはありますか? EDIT1:たとえば、そのようなアレイでの信頼性や管理性、リカバリ操作などを意味します。 EDIT2:別のメーカーのドライブを使用しています。しかし、それは本当に問題ではありません。それらはすべてまったく同じサイズで、メーカーがドライブをわずかに異なるサイズにする場合があるという点がわかります。しかし、この質問のために、それらがまったく同じサイズであると仮定しましょう。 EDIT3:免責事項の並べ替え:これまでのところ、私は常にドライブをパーティション分割しています。

3
Linux RAID5アレイでまだ故障していないディスクを安全に交換する方法は?
4つのディスクにソフトウェアRAID5アレイ(Linux md)があります。 アレイを劣化状態にせずに、可能であればオンラインにして、ディスクの1つを新しいものに交換したいと思います。それはどのように可能でしょうか? 私はしたくないので、それは重要です: 再構築中にクラッシュする可能性があるため、他のディスクにストレスをかけるリスクを負い、 「パリティなしの状態」になる危険性があるため、しばらくの間はセーフティネットがありません。 オンラインでそうすることはあまりにも多くのことを求めているのでdd、古いディスクのデータをオフラインで新しいディスクに生コピー()してから置き換える必要がありますが、理論的には可能だと思います... コンテキスト:これらのディスクはすべて5.5年以上にわたってほぼ連続的に回転しています。現時点ではまだ完全に機能しており、すべて(長い)SMARTセルフテストに合格しています。ただし、これら4つのディスクの1つはそれほど長くは続かないと考えられる理由があります(予測障害が想定されます)。

3
GRUBをソフトRAID 1に正しくインストールする方法
私の設定では、次の方法でそれぞれフォーマットされた2つのディスクがあります。 (GPT) 1) 1MB BIOS_BOOT 2) 300MB LINUX_RAID 3) * LINUX_RAID ブートパーティションは/ dev / md0に、rootfsは/ dev / md1にマッピングされます。md0はext2でフォーマットされ、md1はXFSでフォーマットされます。(フォーマットはsdではなくmdデバイスで行う必要があることを理解しています-これが間違っている場合は教えてください)。 GRUBを正しくセットアップして、一方のドライブに障害が発生してももう一方が起動するようにする方法 そして拡張により、交換用ドライブにも自動的にGRUBが含まれることになりますか?もちろん、これが可能であれば。

5
/ dev / mapperの下のlvmデバイスがありません
この質問は、UnixおよびLinux Stack Exchangeで回答できるため、Server Faultから移行されました。 8年前に移行され ました。 Debian squeezeを使用し、ソフトウェアRAID 1の上でLVMを実行しています。/dev/mapper私のシステムはまだ正常に機能しているように見えますが、下のリンクのほとんどが失われていることを偶然発見しました。 何が起こったのか分かりません。LXC fedoraコンテナを動作させようとして失敗したことが、それが原因であると想像できる唯一のものです。/cgroup/laughlinコンテナに対応するディレクトリを削除することになりましたが、なぜそれが問題を引き起こしたのか想像できません。 /dev/mapper次のように見えました(いくつかの変更を行いました。以下を参照) orwell:/dev/mapper# ls -la total 0 drwxr-xr-x 2 root root 540 Apr 12 05:08 . drwxr-xr-x 22 root root 4500 Apr 12 05:08 .. crw------- 1 root root 10, 59 Apr 8 10:32 control lrwxrwxrwx 1 root root 7 …

5
Linux-GPTを使用してRAID1アレイの不良ブロックを修復する
tl; dr:RAID1アレイの1つのディスクの不良ブロックを修正するにはどうすればよいですか? しかし、私がすでに試したことと私のメソッドで起こりうるエラーについては、このすべてを読んでください。できる限り詳細になろうとしましたが、フィードバックを期待しています。 これが私の状況です:が管理するRAID1アレイに2TBのディスク(同じモデル)をセットアップしていmdadmます。約6か月前に、SMARTが報告した最初の不良ブロックに気付きました。今日、私はもっと気づき、今それを修正しようとしています。 このHOWTOページは、SMARTが報告している不良ブロックを修正するために誰もがリンクしている記事のようです。それは情報が満載の素晴らしいページですが、かなり古く、私の特定の設定に対応していません。ここに私の設定がどのように異なるかがあります: 1つのディスクの代わりに、RAID1アレイで2つのディスクを使用しています。一方のディスクはエラーを報告し、もう一方のディスクは正常です。このHOWTOは1つのディスクのみを念頭に置いて作成されており、「ディスクデバイスまたはRAIDデバイスでこのコマンドを使用しますか?」 fdiskがサポートしていないGPTを使用しています。代わりにgdiskを使用していますが、必要な情報と同じ情報が得られることを期待しています それでは、それを理解しましょう。これは私がやったことですが、機能していないようです。エラーの計算と方法を再確認してください。ディスクレポートエラーは/ dev / sdaです。 # smartctl -l selftest /dev/sda smartctl 5.42 2011-10-20 r3458 [x86_64-linux-3.4.4-2-ARCH] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF READ SMART DATA SECTION === SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) …

2
クラッシュしたLinux MD RAID5アレイを回復する方法は?
しばらく前に、私は自宅でRAID5システムを使用していました。4つのディスクの1つが故障しましたが、取り外して元に戻した後は問題ないように見えたため、再同期を開始しました。それが終わったとき、4枚のディスクのうち3枚が故障したことに、私の恐怖に気付きました。しかし、私はそれが可能だと信じていません。ディスクには複数のパーティションがあり、それぞれが異なるRAIDアレイの一部です。 md0は、sda1、sdb1、sdc1、およびsdd1で構成されるRAID1アレイです。 md1は、sda2、sdb2、sdc2およびsdd2で構成されるRAID5アレイです。 md2は、sda3、sdb3、sdc3、およびsdd3で構成されるRAID0アレイです。 md0とmd2はすべてのディスクを報告し、md1は3つの障害(sdb2、sdc2、sdd2)を報告します。私の理解では、ハードドライブが故障すると、真ん中のパーティションだけでなく、すべてのパーティションが失われるはずです。 その時点で、コンピューターの電源を切り、ドライブのプラグを抜きました。それ以来、私はそのコンピューターをより小さな新しいディスクで使用していました。 データを回復する希望はありますか?私のディスクが実際に動作していることをmdadmに何らかの形で納得させることはできますか?実際に問題がある可能性がある唯一のディスクはsdcですが、そのディスクも他のアレイによって報告されます。 更新 私はついに古いディスクを接続し、SystemRescueCdからこのマシンを起動する機会を得ました。上記はすべてメモリから書き込まれました。現在、いくつかのハードデータがあります。以下が出力ですmdadm --examine /dev/sd*2 /dev/sda2: Magic : a92b4efc Version : 0.90.00 UUID : 53eb7711:5b290125:db4a62ac:7770c5ea Creation Time : Sun May 30 21:48:55 2010 Raid Level : raid5 Used Dev Size : 625064960 (596.11 GiB 640.07 GB) Array Size : 1875194880 (1788.33 GiB 1920.20 GB) …

4
別のマシンのmdadm raid 1の一部であったディスクにデータをマウント/回復する方法は?
いくつかの背景 ディスク自体は友人によって「加工」されており、まだ無傷で、損傷を受けておらず、マウント可能/リカバリ可能であると言われています このディスクは、Ubuntu 12.04のソフトウェアRAID 1の一部でした 元のRAID 1の他のディスクはフォーマットされ、別の目的で使用され、現在のディスク(問題のディスク)は技術的には存在しないRAIDの一部のままです 私がすでに試したこと 基本的な取り付け fstabにエントリを追加し、ディスクをext3 / ext4としてマークし、マウントしようとしました。 マウントすると、次のエラーが表示されます wrong fs type, bad option, bad superblock on そしてdmesgで EXT4-fs (sdc1): VFS: Can't find ext4 filesystem 私はディスクのファイルシステムタイプを見つけようとしましたが、思いつきました $sudo file -s /dev/sdc /dev/sdc: x86 boot sector; partition 1: ID=0x83, starthead 254, startsector 63, 1953520002 sectors, code offset 0xb8 …

1
grub-install:ファイル記述子3がvgs呼び出しでリークしました
LVMのソフトウェアRAID 1にDebian Jessieをインストールしました。 MBRがRAID 1の両方のディスクに確実に書き込まれるようにするためにdpkg-reconfigure grub-pc(ここで提案されているように)実行して、両方のディスクを選択します。 私はそれらのエラーを受け取ります: root@bouzin:/home/jerome# dpkg-reconfigure grub-pc Installing for i386-pc platform. File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install …

3
mdadm:RAID 1のコンポーネントを削除できません
mdadmを使用してRAID 1アレイに/ bootパーティションを作成しました。このアレイは過去数回劣化しており、物理ドライブを取り外すたびに新しいドライブを追加し、アレイを正常に戻すたびに、新しいドライブ文字が使用されます。古いアレイをアレイに残したまま、失敗しました。存在しなくなったすべてのコンポーネントを削除することはできないようです。 [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] 存在しないドライブとパーティションを削除しようとしたことがあります。たとえば、/dev/sdb1。 [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or directory [root@xxx ~]# mdadm /dev/md0 -r faulty mdadm: Cannot …

1
RAIDデバイスの詳細をソフトとハードの両方で取得する方法は?
サーバーにソフトとハードの両方のRAIDが構成されているかどうかを確認したい。 サーバーでいくつかのコマンドを試しました(Suse Enterprise Edition 11): **ms:~ # cat /proc/mdstat Personalities : unused devices: <none> ms:~ #** 実行しようとしましたraiddev /dev/md0が、利用可能なraiddevコマンドがありません。 サーバーのRAIDレベルを確認できる他のコマンドはありますか?

1
mdadm raid1と4kドライブのチャンクサイズ(またはブロックサイズ)は?
mdadm raid1セットアップで2つの3 TBドライブを使用したい(Debian Sequeezeを使用)。 ドライブは、従来の512バイトの代わりに4kハードウェアセクターを使用します。 一方でカーネルが報告するため、私は少し混乱しています: $ cat /sys/block/sdb/queue/hw_sector_size 512 しかし、一方でfdisk報告: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes …


1
mdstatでのビットマップの意味は何ですか
少し前に、RAID6に4つのドライブを備えた新しいソフトウェアRAIDアレイ(mdadm)を作成しました。正常に動作するようです。mdstat続く: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 私を悩ませているのは、bitmap: 0/8 pages理解できない部分です。 問題は、これは潜在的な問題かどうかです。そして、ビットマップが実際に何であるかについて少し詳しく説明してください。 この配列の詳細は次のとおりです。 /dev/md0: Version : 1.2 Creation Time : Tue Nov 1 …

2
高IO待機-根本的な原因を特定する方法
2つの専用サーバーにMySQLインスタンスがあります。1つは本番用、もう1つはテストプラットフォーム用です。 2つのサーバーはかなり同じですが、唯一の違いはRAIDコントローラーと仮想ボリュームです(HDは同じです)。本番環境には、専用のHW RAIDコントローラとRAID 10ボリュームがあります。一方、RAIDコントローラはソフトウェア(Lenovo ThinkServer RAID 110i)のようで、ボリュームはRAID 5です。 MySQLのコミット中に、iowaitが高くなっていることに気付きました。 while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done root 26661 0.0 0.0 0 0 ? D Jun09 5:41 \_ [jbd2/dm-14-8] root 26691 0.0 0.0 0 0 ? D Jun09 0:57 \_ [jbd2/dm-10-8] Thu Jun 18 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.