タグ付けされた質問 「raid」

RAID-独立ディスクの冗長アレイ。冗長性とパフォーマンスを提供し、大容量のストレージに複数のディスクを使用することに伴うI / Oボトルネックを削減するストレージテクノロジー。

2
LVMとMDRAIDのRAID-長所と短所?
では質問「混合RAIDタイプ」への彼の答え、HBruijnは、より標準的なMDRAID対RAIDを実装するためにLVMを使用することを提案しています。 少し調査した結果、LVMはRAID機能もサポートしているようです。過去に、MDRAIDの上でLVMを使用しましたが、これまでLVMがRAID機能もサポートしていることを知りませんでした。これは比較的最近の開発のようですが、いつ実装されたかは正確にはわかりません。 したがって、これらはLinuxでソフトウェアRAIDを実装する代替方法です。これら2つの異なるアプローチの長所と短所は何ですか?人々がどちらがより良いかを判断できるように、2つのアプローチの機能比較を探しています。実験に基づいた結論(この機能は、この機能と同じようには機能せず、その理由もあります)も、データを回答に含めればOKです。 対処すべき特定の問題: sw RAID + LVMを実行したいとします(一般的なシナリオ)。sw RAIDのLVMのサポートを使用する必要があり、したがって2つではなく1つのユーティリティを使用する必要がありますか?この統合されたアプローチには利点がありますか? sw RAIDのLVMサポートは、より成熟したMDADMと比較して大きな欠陥がありますか?具体的には、sw RAIDのLVMサポートはどの程度安定/バグフリーですか?このサポートは2011年(下記参照)にのみ遡りますが、MDADMははるかに古いようです。また、機能セットの点ではどのように比較されますか?MDADMと比較して、機能に重大な欠陥がありますか?逆に、MDADMにはないsw RAID機能はサポートされていますか? ノート: 詳細な議論は http://www.olearycomputers.com/ll/linux_mirrors.htmlにありますが、それが書かれた日付を知ることができませんでした。 Serverfaultに関する同様の質問:linux LVM mirror vs. MD mirror。ただし、この質問は2010年に行われたものであり、回答は古くなっている可能性があります。 バージョン2.02.87の変更ログエントリ-2011年8月12日 MD RAID 1/4/5/6サポート用の新しいsegtype 'raid'にconfigure --with-raidを追加 そのため、LVMでのRAIDサポートは約3年前のようです。
51 lvm  raid  software-raid  md 

4
実行中に「mdadm」RAIDをチェックする方法は?
私は自宅でコンピューターのコレクションを入手し始めており、それらをサポートするために、RAIDアレイを実行する「サーバー」Linuxボックスがあります。 その現在mdadm RAID-1、RAID-5私はより多くのドライブを持っていると行きます(そしてRAID-6私は望んでいます)。ただし、1つのドライブでデータが破損するというさまざまな話を聞いたことがありますが、最初のドライブに障害が発生し、2番目のドライブもねじ込まれている(および3番目、4番目の、5番目のドライブ)。 明らかにバックアップは重要であり、私もそれを大事にしていますが、この問題を解決し、実行中にRAIDをチェックできると主張するスクリプトを見たことがあることは知っています。しかし、これらのスクリプトを再び探していると、以前に実行したものに似ているものを見つけるのが難しくなり、時代遅れで何が変わったかを理解していないように感じます。 実行中のRAIDをチェックして、すべてのディスクがまだ正常に実行されていることを確認するにはどうしますか? 私はすべてのドライブでSMARTを監視しており、mdadm障害が発生した場合にメールで通知するように設定していますが、自分のドライブもときどき「チェック」することを知りたいです。
41 raid  mdadm 

2
mdadmの状態「アクティブ」と状態「クリーン」の違いは何ですか
異なるRAID5アレイを持つ2つの異なるコンピューターがあります。コマンドを実行すると mdadm --detail /dev/md0 一方のドライブは「アクティブ」と報告し、もう一方は「状態」フィールドの「クリーン」と報告します。違いはなんですか?どちらの状態を心配する必要がありますか?両方ともうまくいくようです。
20 raid  mdadm 

3
1つのデバイスでソフトウェアRAID 1を作成できますか
ミラーを作成したい単一のディスクがあります。このディスクを呼び出しましょうsda。同じサイズの別のディスクを購入しましたsdb。sdaそして、sdb呼ばれる一つのパーティション持っているsda1とsdb1、それぞれを。 レイドを作成するとき、sdaクリーンを消去して再起動するのではなく、でミラーリングを開始するだけですsdb。私の思考の流れはそうすることでした: mdadm --create --verbose /dev/md0 --level=mirror --raid-devices=1 /dev/sda1 ... sdbディスクなしでアレイを作成し、次のように実行します(このステップをどのように達成するかわからないため、次のコマンドを大声で考えています) mdadm /dev/md0 --add /dev/sdb1 注sdb1は次のようにフォーマットされていると想定されますsda1 これは可能ですか?
20 raid  mdadm  disk 

1
新しいmd配列は自動読み取り専用で、resync = PENDINGがあります
次のコマンドで新しいmd配列を作成しました。 mdadm --create /dev/md1 -l 1 -n 2 /dev/sd[ed]1 ただし/proc/mdstat、resync = PENDINGを指定して、配列を「自動読み取り専用」として表示します。 ~ # cat /proc/mdstat Personalities : [raid1] md1 : active (auto-read-only) raid1 sde1[1] sdd1[0] 976630336 blocks super 1.2 [2/2] [UU] resync=PENDING md0 : active raid1 sdb1[0] sdc1[1] 1953511936 blocks [2/2] [UU] unused devices: <none> このサイトによると、これを次の方法で修正できます。 mdadm --readwrite /dev/md1 …
17 raid  mdadm 

5
mdadmによるビット腐敗の検出と修正
私は自宅のLinuxボックスnasですべてのHDDを再編成しようとしています。データ保護のためにmdadm raidを使用し、アレイを再形成するための柔軟性を望んでいます。ただし、これにmdadmを使用する前に、bit rotの処理方法を知りたいと思います。具体的には、回復不能な読み取りエラーメッセージがHDDから送信されないビットロットの種類。 NASの8台のディスクで少なくとも21TBのHDDを使用する可能性が高いことと、HDD の障害の可能性に関するさまざまな引用を考えると、1つのディスク障害からの再構築中に合理的に遭遇する可能性が高いと考えています残りのディスクで何らかの形のビットが腐敗しています。ドライブの1つで回復不能な読み取りエラーが発生し、ドライブが実際にエラーとして報告する場合、raid6で問題ないはずです(そうですか?)。ただし、ディスクから読み取られたデータが不良であるが、ディスクによってそのように報告されていない場合、raid6を使用してもこれをどのように自動的に修正できるかわかりません。これは私たちが心配する必要があるものですか?それは2010年であり、RAID5はまだ機能している記事を考える、そして自宅や職場での私自身の成功した経験では、物事は必ずしも話題の言葉やマーケティングが信じているほど悲観的ではありませんが、HDDが故障したからといってバックアップから復元する必要はありません。 使用パターンが、最大で数回書き込み、時々読み取ることを考えると、データのスクラブを実行する必要があります。私は上を参照 ウィキarchlinux 用のmdadmコマンドスクラビングデータとして配列を echo check > /sys/block/md0/md/sync_action その後、進行状況を監視します cat /proc/mdstat これは、すべてのディスクのすべてのセクターを読み取り、データがパリティと一致すること、およびその逆を確認するように思えます。私は、「チェック」操作が自動修正できず、検出するだけで、修正するのはユーザーに任せるという重要な状況があることをドキュメントに強調していることに気付きますが。 ビット腐敗からの保護を最大化するためにどのmdadm RAIDレベルを選択する必要があり、どのようなメンテナンスや他の保護手順を実行する必要がありますか?そして、これは私を何から守らないのでしょうか? 編集:私はRAID対ZFSまたは他の技術QAを開始するつもりはありません。mdadm raidについて具体的に知りたい。それが、私がSuperUserではなくUnixとLinuxで尋ねている理由でもあります。 編集:答えは次のとおりです: mdadmは、データスクラブ中にディスクシステムによって報告されたUREのみを修正し、スクラブ中にサイレントビット腐敗を検出できますが、修正できません/修正しませんか?
17 raid  mdadm 

3
破壊されたRAIDシステムからディスクをマウントする方法は?
Debian Linuxのレスキューで、損傷したRAIDシステムからデータを復元しなければならないという恐ろしい状況があります。VMWare GSXイメージを別のマシンにコピーし、後でそれらをESXiに移行できるように、すべてを読み取り専用モードで/ mnt / rescueにマウントしたいだけです。関連コマンドの出力は次のとおりです。 fdisk -l Disk /dev/sda: 1500.3 GB, 1500301910016 bytes 255 heads, 63 sectors/track, 182401 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0005e687 Device …
16 debian  raid  rescue  data 

3
mdadm:RAID 1のコンポーネントを削除できません
mdadmを使用してRAID 1アレイに/ bootパーティションを作成しました。このアレイは過去数回劣化しており、物理ドライブを取り外すたびに新しいドライブを追加し、アレイを正常に戻すたびに、新しいドライブ文字が使用されます。古いアレイをアレイに残したまま、失敗しました。存在しなくなったすべてのコンポーネントを削除することはできないようです。 [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] 存在しないドライブとパーティションを削除しようとしたことがあります。たとえば、/dev/sdb1。 [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or directory [root@xxx ~]# mdadm /dev/md0 -r faulty mdadm: Cannot …

1
RAIDデバイスの詳細をソフトとハードの両方で取得する方法は?
サーバーにソフトとハードの両方のRAIDが構成されているかどうかを確認したい。 サーバーでいくつかのコマンドを試しました(Suse Enterprise Edition 11): **ms:~ # cat /proc/mdstat Personalities : unused devices: <none> ms:~ #** 実行しようとしましたraiddev /dev/md0が、利用可能なraiddevコマンドがありません。 サーバーのRAIDレベルを確認できる他のコマンドはありますか?

2
Linux:LUKSおよび複数のハードドライブ
RAID-1システムで暗号化されたデバイス(LUKS上のLVM)にDebian Linuxシステム(amd64)がインストールされており、データ(LUKSとおそらくLVM)を配置するディスクが4以上のRAID-6があります。 基本的な考え方は、システム暗号化パーティションのロックを解除し(ローカルでの起動時またはsshを介して)、RAID-6暗号化パーティションのキーファイルを/ etc / crypttabに格納することだと思います。セキュリティ上のリスクはありますか?つまり、誰かがローカル/リモートでシステムに入ることができて、「ルート化」(SSHなど)に対して脆弱なサーバー上で実行されているサービスがたくさんあるとしたら、それはかなり役に立ちません。代替策はありますか(SSHを介してパーティションのロックを解除する以外に、たとえばデータパーティションがマウントされる前でもバックアップ操作が開始されるため問題になることがあります)。 別のマシンでは、バックアップにLUKS + greyhole(RAID-6なし)の複数のディスクを使用します。同じパスワードを10回入力して10個のディスクのロックを解除するのは本当に大変です...

3
mdadm --confを使用してmdadm.confを書き込む
(増え続ける)同一のサーバーのRAIDセットアップをスクリプト化しようとしています。mdadmの使用に関して私が見たアドバイスは、RAIDアレイが作成されたらmdadm --examine --scan >> /etc/mdadm.conf、起動時にアレイが初期化されるように実行できることを示唆しています。しかし、それは私のために動作するようには思えない-特に配列として提示され/dev/md/<hostname>:poolた場合、mdadm --examine出力/dev/md/pool。 私は何か間違っていますか?私のバージョンのmdadmに何か奇妙な点はありますか? [root@positron /]# mdadm --create /dev/md0 --level=0 --name=pool --raid-devices=6 /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf [root@positron /]# mdadm --examine --scan ARRAY /dev/md/pool metadata=1.2 UUID=567da122:fb8e445e:55b853e0:81bd0a3e name=positron:pool [root@positron /]# ls /dev/md/* /dev/md/md-device-map /dev/md/positron:pool [root@positron /]# cat /dev/md/md-device-map md127 1.2 22a17d56:5e448efb:e053b855:3e0abd81 /dev/md/positron:pool [root@positron /]# mdadm --version mdadm …
11 rhel  raid  mdadm 

2
ソフトRAIDからドライブを削除する
RAID 1に3つのSSDドライブを備えた専用サーバーがあります。cat/ proc / mdstatの出力: Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md4 : active raid1 sdc4[2] sdb4[1] sda4[0] 106738624 blocks [3/3] [UUU] bitmap: 0/1 pages [0KB], 65536KB chunk md2 : active raid1 sdc2[2] sda2[0] sdb2[1] 5497792 blocks [3/3] [UUU] md1 : active raid1 sda1[0] sdc1[2] sdb1[1] …
11 raid  raid1 

2
Windows 8.1でRAID 0のデュアルブートとしてUBUNTU 14.04(およびUBUNTU 13.10に基づくMint 16)をインストールする際の問題
わかりました、https://askubuntu.com/questions/455511/dual-boot-ubuntu-14-04-and-windows-7-on-fakeraid-installation-error-question-m#new-answer ?newreg = f2b8bde40c8947f8ac8e3cedec0d1964 そしてその投稿にはいくつかの答えがありますが、それが私が助けを必要としているものと正確に一致するかどうかはわかりません。RAID 0で実行していますが、Fake RAIDかどうかはわかりません。 はじめに、Alienware(Dell)M17xR3を実行しています。これはWindows 7に付属しています。RAID0アレイを持っています。これは「偽の」RAIDだと思いますが、ハードウェアRAIDコントローラーも持っていることは知っています。以前はパーティション分割されていて、Ubuntu 13.04がインストールされていて、インストール、パーティションの作成、GRUBのインストールに問題はありませんでした。その後、Windows 8.1 Proにアップグレードしましたが、インストール中にGRUBを失いましたが、WindowsのHDDパーティションサイズから、Linuxパーティションがまだそこにあることがわかりました。GRUBを再インストールするだけで、Linuxパーティションを再フォーマットして、Ubuntu 14.04 x64のクリーンインストールを実行する必要がありました。また、ミント16 x64シナモンも試しました。カスタムパーティションセクションの後に、まったく同じインストーラーとまったく同じエラーメッセージが表示され、??????が表示されました。Windows 8がEFI / UEFIインストールを作成したかどうかはわかりませんが、Windows 7にはインストールされていなかったと思います。 これは私が投稿したスレッドへのリンクです:http : //forums.linuxmint.com/viewtopic.php?f=46&t=164950&e=0 そのスレッドごとに、いくつかの端末出力を投稿するように求められました。 「sudo parted -l」出力: Error: Can't have a partition outside the disk! Error: /dev/sdb: unrecognised disk label Model: Linux device-mapper (linear) (dm) Disk /dev/mapper/isw_dcigjjhddj_M17X_RAID0p6: 212GB Sector size (logical/physical): …

2
高IO待機-根本的な原因を特定する方法
2つの専用サーバーにMySQLインスタンスがあります。1つは本番用、もう1つはテストプラットフォーム用です。 2つのサーバーはかなり同じですが、唯一の違いはRAIDコントローラーと仮想ボリュームです(HDは同じです)。本番環境には、専用のHW RAIDコントローラとRAID 10ボリュームがあります。一方、RAIDコントローラはソフトウェア(Lenovo ThinkServer RAID 110i)のようで、ボリュームはRAID 5です。 MySQLのコミット中に、iowaitが高くなっていることに気付きました。 while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done root 26661 0.0 0.0 0 0 ? D Jun09 5:41 \_ [jbd2/dm-14-8] root 26691 0.0 0.0 0 0 ? D Jun09 0:57 \_ [jbd2/dm-10-8] Thu Jun 18 …

1
USBスティックをストレージメディアとして使用してRAIDシステムをセットアップする方法
冗長ストレージを備えた安価な自己ホスト型プライベートgitサーバーを作成したい。そのために、私はRaspberry Piを購入し、両方gitとPi上で構成しsshました。LANとリモートの両方で(ルーターのポートをPiに転送することで)Piにアクセスできます。 したがって、gitサーバーはすでに稼働しています。最後に行うことは、冗長ストレージです。7ポートのUSBハブをPiに接続しているため、複数の同一のUSBスティックを使用してRAIDシステムをセットアップしたいと思います。 私はRAIDの概念的な知識しか持っていません。したがって、私はそれを設定する方法を知りません。さらに重要なのは、ハブに接続されたUSBスティックでそれが可能かどうかです。 これらは基本的に私の質問です USBスティックをストレージメディアとして使用してRAIDシステムをセットアップできますか 使用すべきソフトウェア RAIDシステムの優れたチュートリアル/マニュアルはどこにありますか RAIDが不可能な場合、どうすれば複数のUSBスティック間でデータを同期できますか

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.