タグ付けされた質問 「mdadm」

ソフトウェアRAIDデバイスの管理に使用されるLinuxユーティリティ。

3
mdadm-RAID0からディスクを削除する
だから、私は知りたいのですが、mdadmで次のことをすることが可能です: 私は2枚のディスク上のRAID0構成で起動しますsdaとsdb。 もう1つのディスクをアレイに追加sdcしsdb、そこからすべてのデータを移動したいと思います。 切断sdb。 現在、オプションは1つしか表示されません。アレイを停止sdbしsdc、ddまたは他のブロックコピーツールでコピーして、アレイを再び開始します。 私は何かを逃していますか?mdadmでこれを行うことは可能ですか?
11 mdadm  raid0 

1
Linux; stripe_cache_sizeとは何ですか?
現在、mdadmユーティリティを使用してLinuxでソフトウェアRAIDを構築しています。そのRAIDのstripe_cache_size値を増やす方法と、stripe_cache_sizeの適切な値を計算する方法を説明する記事をいくつか読んだことがあります。 私は16384に増やし、/ proc / mdstatの新しいRAID5での現在の同期レートが71065K /秒から143690K /秒(2倍)に急上昇しました。これは朗報です。また、RAM使用量の一致と予想される増加もわかりますが、この設定の機能とその動作に関するドキュメントは見つかりません。 これは、RAMに存在するRAIDのある種のキャッシュのようです。その名前とそれを変更することによる影響から、私が知ることができるのはそれだけです。この設定とその説明に関する公式の「Linux」ドキュメントはありますか?
10 linux  cache  mdadm 

1
mdadmおよび4kセクター(高度なフォーマット)
Serverfaultには4kセクターのディスクの調整について多くの質問がありますが、1つだけはまだはっきりしていません。 RAID1 + LVMの調整に成功しました。私がしたことの1つは、mdadmスーパーブロックバージョン1.0(スーパーブロックをディスクの最後に格納する)を使用することでした。 マンページはこれを言っています: 異なるサブバージョンは、デバイスの異なる場所にスーパーブロックを格納します。末尾(1.0の場合)、先頭(1.1の場合)、または先頭から4K(1.2の場合)のいずれかです。「1」は「1.0」と同等です。「デフォルト」は「1.2」と同等です。 デフォルトである1.2バージョンは4kセクタードライブ用に作られていますか?最初から4k +スーパーブロックの長さは4kの倍数ではないため(私が正しく覚えていれば、スーパーブロックの長さは約200バイトです)、私が見る方法ではそうではありません。 これについての洞察は大歓迎です。 編集: mdadmスーパーブロック1.1および1.2は4kアライメント用であると、以下に回答しました。私はデバイス全体のレイドを作成しました: mdadm --create /dev/md4 -l 1 -n 2 /dev/sdb /dev/sdd 次に、それに論理ボリュームを追加しました。 vgcreate universe2 /dev/md4 アレイは16 MB /秒で同期しています。 md4 : active raid1 sdd[1] sdb[0] 1465137424 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (13100352/1465137424) finish=1471.6min speed=16443K/sec だから私はそれが正しく調整されているとは思いません。 (ディスクは1.5 TB WD …

3
open-iscsiの書き込みが10Gイーサネット経由のSambaの2倍遅いのはなぜですか?
ローカルファイルサーバーでは、7x HDDドライブにraid-6を使用しています。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync ローカル速度テストでは、349 MB /秒の書き込み速度が得られます。 SSDからSambaへのリモート書き込み(2Gb /秒以上の読み取り速度)では、259MB /秒の書き込みができます。しかし、iSCSIドライブ(Win10 iSCSIイニシエーター上)へのリモート書き込みでは、151 Mb /秒の書き込みしかできません。 raid6構成-128Kチャンクサイズ、stripe_cache_size =8191。書き込みインテントビットマップはSSDにあります(Samsung 860 PRO、4096Kビットマップチャンク)。 オプションでマウントされたアレイ: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi setup:ターゲットは4Tbファイルに基づいています。 書き込み時にiSCSIがSambaより遅い理由は何か?iSCSI書き込み速度を向上させる方法に関するヒントはありますか? open-iscsiが各操作の後にディスクへの書き込みをフラッシュしたいという欲求と関係があると思います。これにより、過度のパリティ書き換えによりraid6の書き込み増幅が増加します。しかし、私はそれを修正する方法がわかりません。停電の場合は、現在書き込まれているデータの安全性よりも速度を重視してください。 余談ですが、古いietd iSCSIターゲットは(を使用してIOMode=wb)ライトバックモードを有効にすることができ 、持続的な書き込み速度ははるかに高速でした。残念ながら現在はメンテナンスされていないようです。

1
Ubuntuサーバー、gptパーティションテーブル、mdadm、grubブートが失敗する
基本的な作業システムの詳細: Ubuntu 12.04サーバーCDを使用してサーバーをインストールしました。 4つのディスクがあります。すべてのディスクで、このhowtoと同様に、次のことを行いました。 2GBのスワップパーティションを作成しました 256 GBの/ bootパーティションを作成 64 GB RAID10パーティションを作成(ルート用) 残りのスペースを占める大きなRAID10パーティションを作成 ブートをext3としてフォーマットしました。ルートと大きなパーティションにRAID10をセットアップしました。ルートをext4でフォーマットしました。大きなボリューム上に論理ボリュームを作成し、ext4でフォーマットしました。 結果のシステムは正常に動作し、正常に起動します。 問題の詳細: 次に、失敗の手順を文書化することにしました。最初のステップとして、grubを再インストールすることにしました。 # grub-install /dev/sda warn: This GPT partition label has no BIOS Boot Partition; embedding won't be possible!. error: Embedding is not possible. GRUB can only be installed in this setup by using blocklists. However, …
9 ubuntu  raid  mdadm  grub2  gpt 

1
mdadmで構築されたRAID5アレイの再構築/回復/拡張中にマシンをシャットダウンしても安全ですか?
私は最近、ファイルサーバーで5ドライブRAIDの回復を開始しました。完了までに691分以上かかると表示されています。マシンが停電した場合、プロセスはどうなるのだろうと思っていました。回復プロセスをもう一度再開する必要がありますか?データのRAID全体が失われますか? また、RAIDを拡張している最中に電源が切れた場合はどうなりますか?

1
RAIDアレイのトラブルシューティング方法を教えてください。
今朝、RAIDアレイにチェックインしたところ、次のようになりました。 $ cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md1 : active raid1 sdc7[0] 238340224 blocks [2/1] [U_] md0 : active raid1 sdc6[0] 244139648 blocks [2/1] [U_] md127 : active raid1 sdc3[0] 390628416 blocks [2/1] [U_] unused devices: <none> $ 私の考えでは、これは私のアレイの1つのディスクが故障していることを意味します、これは本当ですか? 今後、適切なトラブルシューティングを行うにはどうすればよいですか?私の/etc/mdadm/mdadm.confように見えます: $ cat /etc/mdadm/mdadm.conf …
8 raid  mdadm 

4
apt-get update mdadm怖い警告
私の専用サーバーの1つでapt-get更新を実行しただけで、比較的恐ろしい警告が残ります。 Processing triggers for initramfs-tools ... update-initramfs: Generating /boot/initrd.img-2.6.26-2-686-bigmem W: mdadm: the array /dev/md/1 with UUID c622dd79:496607cf:c230666b:5103eba0 W: mdadm: is currently active, but it is not listed in mdadm.conf. if W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output of …
8 debian  apt  mdadm  update 

4
md / LVM / dm-cryptで4kドライブを使用する
4kドライブを8の倍数のセクターに揃える必要があることはわかっていますが、md-RAID / LVM / dm-cryptはどうなりますか?ドライブが4kであることをこれらのレイヤーに伝えるにはどうすればよいですか?4Kセクターサイズを尊重しない場合、パーティションの配置は役に立ちません。LVM / md / crypto-layersをどのように揃えますか?ありがとう。

2
LinuxソフトウェアRAID 10が1台のドライブに障害が発生した後にハングし、mdadmで障害のあるデバイスを強制的に削除できません
5つのRAID 1(ミラーリングされたセットアップごとに2つのドライブ)と5つのRAID 1ペアすべてにRAID 0で構成されるLinuxソフトウェアRAID 10セットアップがあります。負荷がかかってもドライブがすぐに故障しないことをテストするために、破壊的な読み取り/書き込みモードでRAID 0全体に不良ブロックを使用しました。 Badblocksコマンド:badblocks -b 4096 -c 98304 -p 0 -w -s / dev / md13 デバイスの1つに障害が発生し、badblocksプログラムの代わりに問題なく移動しました。syncコマンドを実行すると、これもハングします。まず、これはRAID 1デバイスの標準的な動作ではないと思います。ドライブの1つが故障しても、2つのドライブが問題なく構成する仮想デバイスに書き込むことができます。 だから私はドライブを強制的に故障させ、それを取り除こうとしました。ドライブを問題なく設定できます(ただし、IO操作はまだハングしています)。私はそれがビジーであると言うraidからデバイスを完全に削除することはできません。私の想定では、レイドから完全に追い出すことができればIOは継続するが、それは単なる想定であり、一種のバグに対処していると思います。 ここで正確に何が起こっているのですか?バグが原因で回復不可能な場所にいますか? システムはカーネル2.6.18を実行しているので、まったく新しいというわけではありませんが、ソフトウェアraidがこれらのような長い問題のために発生していないことを考えると、私は思います。 どんな洞察も大歓迎です。 mdadm --detail / dev / md13 / dev / md13: Version : 00.90.03 Creation Time : Thu Jan 21 14:21:57 2010 Raid Level : raid0 …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.