タグ付けされた質問 「md」

2
LVMとMDRAIDのRAID-長所と短所?
では質問「混合RAIDタイプ」への彼の答え、HBruijnは、より標準的なMDRAID対RAIDを実装するためにLVMを使用することを提案しています。 少し調査した結果、LVMはRAID機能もサポートしているようです。過去に、MDRAIDの上でLVMを使用しましたが、これまでLVMがRAID機能もサポートしていることを知りませんでした。これは比較的最近の開発のようですが、いつ実装されたかは正確にはわかりません。 したがって、これらはLinuxでソフトウェアRAIDを実装する代替方法です。これら2つの異なるアプローチの長所と短所は何ですか?人々がどちらがより良いかを判断できるように、2つのアプローチの機能比較を探しています。実験に基づいた結論(この機能は、この機能と同じようには機能せず、その理由もあります)も、データを回答に含めればOKです。 対処すべき特定の問題: sw RAID + LVMを実行したいとします(一般的なシナリオ)。sw RAIDのLVMのサポートを使用する必要があり、したがって2つではなく1つのユーティリティを使用する必要がありますか?この統合されたアプローチには利点がありますか? sw RAIDのLVMサポートは、より成熟したMDADMと比較して大きな欠陥がありますか?具体的には、sw RAIDのLVMサポートはどの程度安定/バグフリーですか?このサポートは2011年(下記参照)にのみ遡りますが、MDADMははるかに古いようです。また、機能セットの点ではどのように比較されますか?MDADMと比較して、機能に重大な欠陥がありますか?逆に、MDADMにはないsw RAID機能はサポートされていますか? ノート: 詳細な議論は http://www.olearycomputers.com/ll/linux_mirrors.htmlにありますが、それが書かれた日付を知ることができませんでした。 Serverfaultに関する同様の質問:linux LVM mirror vs. MD mirror。ただし、この質問は2010年に行われたものであり、回答は古くなっている可能性があります。 バージョン2.02.87の変更ログエントリ-2011年8月12日 MD RAID 1/4/5/6サポート用の新しいsegtype 'raid'にconfigure --with-raidを追加 そのため、LVMでのRAIDサポートは約3年前のようです。
51 lvm  raid  software-raid  md 

3
Linux md RAID:/ dev / md0 vs. / dev / md / 0
新しいシステム/usr/share/mdadm/mkconf(生成に使用されるスクリプト/etc/mdadm/mdadm.conf)/dev/md/0では、/dev/md0次の代わりにデバイス名を使用する傾向があります。 new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 これは/dev/md0、そこを期待しているユーザーにいらいらを引き起こすかもしれませんが、サーバーが問題なく起動するので、どうやらうまく動作するようです。 では/proc/mdstat、デバイスはまだ呼ばれています/dev/md0。 new-system ~ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb2[2] sda2[0] 1953381184 blocks super 1.2 [2/2] [UU] unused devices: <none> ls以下/dev/md/0へのシンボリックリンクであることを示しています/dev/md0。 new-system ~ # ls -l /dev/md/0 lrwxrwxrwx 1 root root 6 …
19 debian  mdadm  md 

1
md raid5:md内部セクター番号をオフセットに変換します
TL; DRの要約:mdセクター番号を/dev/mdXデバイス内のオフセットに変換し、それをで調査する方法xfs_db。セクター番号はからのものsh->sectorですlinux/drivers/md/raid5.c:handle_parity_checks5()。 MDの内部がわからないので、printk追加したログからの出力をどうするか正確にわかりません。 コンポーネントデバイス(ddまたはhexエディター/ビューアー)へのオフセットも興味深いでしょう。 Linux-raidメーリングリストでこれを尋ねるべきだと思います。サブスクライバーのみですか、またはサブスクライブせずに投稿できますか? 私のデスクトップでは、4つのディスクのMD RAID5の上に直接xfsがあります(LVMなし)。最近のスクラブでゼロ以外が検出されましたmismatch_cnt(mdは一度に4kiBページで動作するため、実際には8)。 これはRAID5であり、通常の動作中に!= 0が発生する可能性があるmismatch_cnt RAID1 / RAID10 ではありません。(このWikiページの下部にある他のリンクは、一部の人々にとって役立つかもしれません。) 私は盲目的にできましたrepairが、どのファイルを再構築するかを選択する機会を失う以外に、破損の可能性をチェックするファイルがわかりません。 同様の質問に対するFrostschutzの回答は、ファイルシステムの違いを追跡するために私が見つけた唯一の提案です。面倒で遅いので、最初にいくつかのファイルに絞り込むために、より良いものを使用したいと思います。 ロギングを追加するカーネルパッチ 奇妙なことに、mdのチェック機能は、エラーが見つかった場所を報告しません。 私は追加printkログインするには、MD / raid5.cにsh->sectorにif増加することを支店mddev->resync_mismatches内handle_parity_checks5()(小さなパッチgithubの上で公開され、もともとkernel.orgから4.5-RC4に基づいて、。)これは一般的な使用のためにOKであるために、それはおそらくする必要があります不一致が多い修理でログが殺到しないようにします(たぶん、新しい値がresync_mismatches1000未満の場合にのみログを記録しますか?)。また、ログのみでログはないかもしれcheckませんrepair。 同じ関数がそのセクター番号をのエラー処理の場合にswitch出力するので、(MDの内部を知らなくても)何か有用なものをログに記録していると確信しています。 変更したカーネルをコンパイルして起動し、チェックを再実行しました。 [ 399.957203] md: data-check of RAID array md125 ... [ 399.957215] md: using 128k window, over a total of 2441757696k. ... [21369.258985] md/raid:md125: check found mismatch at sector …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.