タグ付けされた質問 「software-raid」

オペレーティングシステムによって処理されるRAIDソリューション。

3
mdのraid10、f2を説明する
さまざまなRAIDのほとんどがどのように機能するかを知っています。しかし、 LinuxソフトウェアRAIDの調査中に、推奨されるraid10、f2モードを見つけました。私はそれが2つまたは3つのディスクでどのように機能するかを本当に理解していません。誰かが私にそれを説明できますか?またはそれを説明する本当に良い記事を教えてください。

1
KVMゲストioはホストioよりもはるかに遅い:それは正常ですか?
CentOS 6.3でQemu-KVMホストシステムをセットアップしています。ソフトウェアRAID10で動作する4つの1TB SATA HDD。ゲストCentOS 6.3は別のLVMにインストールされます。ゲストのパフォーマンスはホストのパフォーマンスとほぼ等しいと人々は言いますが、私はそうは思いません。私のI / Oテストでは、ホストシステムよりもゲストでのパフォーマンスが30〜70%遅くなっています。スケジューラ(elevator=deadlineホストとelevator=noopゲストに設定)をblkio.weight変更し、cgroupで1000に設定し、ioをvirtio に変更しようとしました...しかし、これらの変更はどれも重要な結果をもたらしませんでした。これはゲストの.xml構成部分です。 <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </disk> 私のテストがあります: ホストシステム: オゾン試験 # iozone -a -i0 -i1 -i2 -s8G -r64k random random KB reclen write rewrite read reread read write 8388608 64 189930 …

1
XFSでLinuxソフトウェアRAID 5を簡単に拡張できます。ベストプラクティス?
Ubuntuマシンを、Samba共有を使用するWindows / Linux / Macクライアントのファイルサーバーとして使用します。データを前後に移動することなく、ハードドライブを追加するだけで簡単に拡張できる必要があります。 これが私がこれまでやってきた方法です。4台目のハードドライブを追加しました。今、これがどのように行われるべきであるかを知ってうれしいでしょうか?私が間違っているのは何ですか? 最初の3ドライブアレイの作成 3つの空のドライブから始めました:/ dev / sdb、/ dev / sdc、および/ dev / sdd。 最初に、すべてのドライブに空のパーティションを作成しました。 $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] # Starting point to first sector (default) [enter] # Ending point to last sector (default) …


3
KVM / libvirtホストとゲスト間で共有されるLVMボリュームグループ:これは悪い考えですか?
4つのSATA IIハードドライブを搭載し、CentOS 5.5 x86_64を実行する、光沢のある新しいKVM / libvirtベースの仮想マシンホストを構築しました。 ディスクをqcowイメージとして作成する通常のプラクティスの代わりに、libvirtストレージプールとして管理されるLVMボリュームグループに論理ボリュームとして仮想マシンディスクを作成することにしました。 私が決められないのは、VMホストのボリュームグループに仮想マシンの論理ボリュームを作成するか、専用のボリュームグループに作成するかです。 どの方法を選択する必要があり、なぜですか? 方法1:VMホストのボリュームグループを使用する 実装: ファイルシステムmd0を含む小さなRAID1/boot md1LVMボリュームグループを含む残りのスペースを占める大きなRAID10 vghost。vghostVMホストのルートファイルシステムとスワップパーティションが含まれます vghost必要に応じて、仮想マシンディスクを論理ボリュームとして作成します 長所: VMホストのルートファイルシステムがスペースを使い果たした場合、vghost比較的簡単により多くのスペースを割り当てることができます システムはすでに稼働しています(ただし、最初からやり直すことは大したことではありません) 短所: この方法が機能しているように見えるという事実を無視して、これが何らかの形で悪い考えであるという感覚を揺るがすことはできません。私はそのように感じる: これは何らかの形でセキュリティリスクになる可能性があります 将来のある時点で、セットアップに何らかの制限があり、専用のグループを使用したい システム(CentOS、libvirtなど)は実際にはこのように使用するように設計されていない可能性があるため、ある時点でVMホストのファイルやファイルシステムを誤って破損/紛失する可能性があります 方法2:専用のボリュームグループを使用する 実装: 方法1 md0と同じmd1。ただしmd1、VMホストを収容するのに十分な大きさにする(5〜10GBなど) md2残りのスペースを占める大きなRAID10 。論理ボリュームが仮想マシンによって排他的に使用されるmd2LVMボリュームグループを含むvgvms 長所: vgvmsホストOSを壊すことを恐れずにいじることができます これはよりエレガントで安全なソリューションのようです 短所: VMホストのファイルシステムがスペースを使い果たした場合、そのファイルシステムの一部(たとえば、/ usrまたは/ var)をvgvmsに移動する必要があります。 ホストOSを再インストールする必要があります(以前に述べたように、実行することはあまり気にしません) 更新#1: 方法2でVMホストのディスク領域が不足することを心配する理由の1つは、VMホストがすべてのサービスを仮想マシンで実行できるほど強力かどうかわからないためです。一部またはすべてのサービスを仮想マシンからホストOSに移行する必要がある場合があります。 VMホストのハードウェア仕様: Phenom II 955 X4 Black Editionプロセッサー(3.2 GHz、4コアCPU) 2x4GB Kingston PC3-10600 …

5
Windowsでミラーディスクの状態をどのように監視しますか?
Windows 2003 Serverにミラー化されたダイナミックディスクがあります。ボリュームの状態をどのように監視しますか? ボリュームに問題があるときにサーバーにメールを送信させる方法はありますか?サーバーでSMARTテストを実行する方法はありますか? 編集: WTFがクライアントサーバーにログインし、DISKPART LIST VOLUMEを実行してこれを確認することはありません。 Volume ### Ltr Label Fs Type Size Status Info ---------- --- ----------- ----- ---------- ------- --------- -------- Volume 0 X xDrive NTFS Mirror 233 GB Failed Rd Volume 1 C NTFS Simple 57 GB Healthy System Volume 2 D DVD-ROM 0 B …

11
RAID5はRAID1より堅牢です
古いハードウェアRAID5アレイをLinuxソフトウェアRAID1アレイに置き換えようとしています。私は友人と話していましたが、彼はRAID5はRAID1より堅牢であると主張しました。 彼の主張は、RAID5では、すべてのドライブが正しいデータを返していることを確認するために、読み取り時にパリティデータが読み取られることでした。さらに、RAID1ではこのようなチェックが行われないため、ドライブで発生するRAID1エラーは気付かれないと主張しました。 これがどのように当てはまるかはわかりますが、問題のRAIDシステムがどのように実装されているかにかかっていることもわかります。確かに、RAID5システムは読み取り時にパリティデータを読み取って確認する必要はなく、RAID1システムは読み取り時にすべてのドライブから同じように簡単に読み取って、すべてが同じデータを保持していることを確認できるため、同じレベルの堅牢性(対応するパフォーマンスの低下を伴う)。 問題は、実世界のRAID5 / RAID1システムは実際に何をしているのかということです。RAID5システムは読み取り時にパリティデータをチェックしますか?すべてのドライブから読み取り、読み取り時にデータを比較するRAID1システムはありますか?

2
ドライブが「E」状態のSynology NASでmdadmアレイを回復するにはどうすればよいですか?
Synologyには、カーネルのrdev-> flags構造に「DriveError」フラグを追加する、カスタマイズされたバージョンのmdドライバーとmdadmツールセットがあります。 正味の影響-アレイの障害(最初のドライブ)が発生し、2番目のドライブのエラーが発生した場合、アレイは、ドライブからの読み取りが機能しているにもかかわらず、アレイを修復または再構築できない状態になります。大丈夫。 この時点では、この質問についてはこの配列についてはあまり心配していません。既にコンテンツを取り出して再構築するつもりなので、将来的にはこの問題の解決方法を知りたくないからです。 、これは2回目なので、フォーラムで他の人が同様の質問をしているのを見たことがあります。 Synologyのサポートはあまり役に立たず(ほとんどの場合無反応)、ボックスのRAIDセットの扱いに関する情報は一切共有されません。 / proc / mdstatの内容: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2] 11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE] md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] …

2
サーバー負荷が高い-[jbd2 / md1-8] 99.99%IOを使用
先週、負荷が急上昇しています。これは通常、1日に1回または2回発生します。[jbd2 / md1-8]が99.99%のIOを使用していることをiotopから特定できました。高負荷時には、サーバーへの高トラフィックはありません。 サーバーの仕様は次のとおりです。 AMD Opteron 8コア 16 GB RAM 2x2.000 GB 7.200 RPM HDDソフトウェアレイド1 Cloudlinux + Cpanel MySQLは適切に調整されています スパイクは別として、負荷は通常最大で約0.80です。 私はあちこち検索しましたが、[jbd2 / md1-8]が正確に行うことを見つけることができません。誰かがこの問題を抱えていたり、可能な解決策を知っていますか? ありがとうございました。 更新: TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND 16:05:36 399 be/3 root 0.00 B/s 38.76 K/s 0.00 % 99.99 % [jbd2/md1-8]

3
Linuxソフトウェアraidをraid5からraid6に変換します
現在、RAID5アレイに3つの1.5TBディスクを持つファイルサーバーがあります。ほぼ満杯なので、3つの追加ディスク(それぞれ1.5 TB)を入手しました。 6TBのスペースで十分であり、RAID6の安全性を高めたいので、RAID6に切り替えたいと思います。私は完全なバックアップを持っています-つまり、単に新しいアレイを作成してバックアップを復元できます-バックアップを復元せずに切り替えたいと思います。これは可能ですか?

5
RAIDアレイが機能低下しているときにDebianを起動する
最近、Ubuntu Serverのインストールに遭遇しました。インストール中に、劣化したRAIDアレイからのシステムの起動を許可するかどうかを尋ねられました(おそらく、システムをRAID1 / dev / md0デバイスにインストールしたためです)。これはちょうど、無人サーバー用の強力な、便利なオプションである必要があり、そのRAIDアレイは、(長いそれは完全に失敗していないとされる)劣化しているかどうか、オンラインに。 高速検索の後、私はそれを読んでいずれかの方法で動作することがわかった/etc/initramfs-tools/conf.d/mdadm設定ファイル(BOOT_DEGRADED = trueオプション)、または(=真bootdegraded)カーネルブートライン引数を読み込むことで。 質問: Debianで機能する同様のもの(機能が低下したアレイでシステムを起動する方法)はありますか?この正確な方法が適用できるかどうか、またはこの特定の機能があるかどうかさえわかりません。 以前はいくつかのシステムにRAID5アレイがあり、不適切なシャットダウン時に手動でアレイを「修正」するまでこれを起動できなかったので、これを求めています。これは、サーバーが遠隔地に無人だったため、主要なPITAであることが判明しました。 UPSがなく、停電が起こりました。ですから、今後このような問題を防ぐことができるようにお願いします。

3
open-iscsiの書き込みが10Gイーサネット経由のSambaの2倍遅いのはなぜですか?
ローカルファイルサーバーでは、7x HDDドライブにraid-6を使用しています。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync ローカル速度テストでは、349 MB /秒の書き込み速度が得られます。 SSDからSambaへのリモート書き込み(2Gb /秒以上の読み取り速度)では、259MB /秒の書き込みができます。しかし、iSCSIドライブ(Win10 iSCSIイニシエーター上)へのリモート書き込みでは、151 Mb /秒の書き込みしかできません。 raid6構成-128Kチャンクサイズ、stripe_cache_size =8191。書き込みインテントビットマップはSSDにあります(Samsung 860 PRO、4096Kビットマップチャンク)。 オプションでマウントされたアレイ: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi setup:ターゲットは4Tbファイルに基づいています。 書き込み時にiSCSIがSambaより遅い理由は何か?iSCSI書き込み速度を向上させる方法に関するヒントはありますか? open-iscsiが各操作の後にディスクへの書き込みをフラッシュしたいという欲求と関係があると思います。これにより、過度のパリティ書き換えによりraid6の書き込み増幅が増加します。しかし、私はそれを修正する方法がわかりません。停電の場合は、現在書き込まれているデータの安全性よりも速度を重視してください。 余談ですが、古いietd iSCSIターゲットは(を使用してIOMode=wb)ライトバックモードを有効にすることができ 、持続的な書き込み速度ははるかに高速でした。残念ながら現在はメンテナンスされていないようです。

4
RAID 10デバイスを初期化する必要があるのはなぜですか?
Linuxソフトウェアraidデバイスをraid10デバイスとして作成するとき、なぜ初期化する必要があるのか​​と混乱します。同じ質問がraid1またはraid0にも当てはまります。 結局のところ、ほとんどの人はその上にある種のファイルシステムを置き、そのファイルシステムはディスクのデータの状態を想定すべきではありません。各書き込みは、Nミラーが書き込まれるraid10またはraid1セットアップの両方のディスクに影響します。raid10は時間の経過とともに発生するため、最初に初期化する理由はまったくありません。 パリティ要件があるraid5 / 6セットアップの理由は理解できますが、それでもこれは遅延して実行できるようです。 それは人々が気分を良くするためだけのものですか?

1
mdadmで構築されたRAID5アレイの再構築/回復/拡張中にマシンをシャットダウンしても安全ですか?
私は最近、ファイルサーバーで5ドライブRAIDの回復を開始しました。完了までに691分以上かかると表示されています。マシンが停電した場合、プロセスはどうなるのだろうと思っていました。回復プロセスをもう一度再開する必要がありますか?データのRAID全体が失われますか? また、RAIDを拡張している最中に電源が切れた場合はどうなりますか?

2
既存のRAID1を新しいLinuxシステムに接続するにはどうすればよいですか?
現在、単一のハードドライブでRAID1を実行しています(はい、ミラーはありません)。次のアルゴリズムを使用してシステムを再編成することは可能ですか? 別の単一ディスクRAID1を(同じタイプの別のHDDに)セットアップし、それをパーティション分割して、そこにDebianの新しいインスタンスをインストールします。 古いシングルディスクRAID1セットアップをマウントし、そこからすべてのデータを新しいRAIDにコピーします。 次に、古いディスクを再フォーマットして、新しいRAIDセットアップに含めます。 私はほとんど2番目の点を疑っています-どのようにすればよいですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.