タグ付けされた質問 「raid」

独立した/安価なディスクの冗長アレイ。複数のディスクを利用して、信頼性、パフォーマンス、冗長性を向上させるテクノロジー。ソフトウェアまたはハードウェアコントローラーで実装できます。

2
自宅のNASはデータを維持するのに信頼できますか(他のバックアップはありません)?
一部のデータ(例:写真)、古いが重要な他のデータをNASにのみ移動する(私用、ビジネスレベルではない)と考えていたときに、問題が発生しました。 私のNASはシンプルな2ディスクRAIDシステムです。RAIDはハードウェアの冗長性を提供するだけなので、RAIDはバックアップシステムではないことを知っているので、データディレクトリの増分(バージョン管理)バックアップを作成することを計画しました。バックアップ先は同じNASになるため、データの唯一のインスタンス(ノートブックまたはデスクトップマシンにはコピーはありません)とバージョン付きバックアップは、これら2つのディスクに完全に残ります。 今、私はこの手順がどれほど信頼できるか疑問に思いました。ヘッドが安全な位置に後退し、ディスクを「ヒット」または「スクラッチ」しないので、停電は通常、ディスク上のデータに影響を与えませんが、もちろん現在書き込まれているデータやさらに悪いことに、ドライブの電子機器に影響を与え、使用できなくなります。 現在、適切なシャットダウンを保証するためにNASとうまく機能する小型のUPSに投資すべきか、複数のバックアップ場所(またはその両方?)に頼るべきか、私はかなり確信が持てません。 同じマシン上にデータ+バックアップのインスタンスが1つしかない場合でも、危険と見なされますか? (ここでは盗難を無視しています。接続されているすべてのケーブルLAN、電源などが保護されているため、サージも発生します。さらに:クラウドをデータに使用したくない(暗号化されているかどうかにかかわらず)) 編集:すみません、それは合計2つのディスクを持つRAID 1です。

2
新しいSSD(Corsair)は、最初の起動後、検出されるまでに1〜2分かかります
私の新しいSSD Corsair CSSD-F60は実際に機能します-ブートおよびシステムディスク(Windows 7 64ビット)に使用します。しかし、最初に(コールド)でPCを起動するとき、BIOSとIntel ICH9Rコントローラーによって正しく検出されません。最初の起動試行は常に失敗します。1〜2分待ってからCTRL + ALT + DELを使用して再試行すると、認識され、すべてが期待どおりに機能します。このマシンではRAID-5 SATAセットも実行しています。これは以前のシステムパーティションでした。 一部のスクリーンショットは問題を説明しています: PCの電源を入れて初期化すると、次のようになります。問題は次のとおりです。「ポート00」で認識されますが、[ 物理ディスク]セクションに表示されません。 ブートディスクが見つからなかったためのエラー: CTRL + ALT + DELをすぐに押すと、手順はおそらく(1)から繰り返されます。しかし、最初の起動から約1〜2分が経過した後、次の画面が表示されることは確かです。これからは、すべてが正常に動作します!SSDが[ 物理ディスク]セクションに表示されます。 興味深いことに、最初の期間にBIOSに移動するとき、SSDがリストに表示されないだけなので、ブートデバイスとしてSSDを選択できません。認識されたら、リストから選択できます。 (これは実際のバージョンです。最初の期間は、私のIntel RAIDデバイスのみがリストされています) 通常、私はPCの電源を入れ、2分待ってからCTRL + ALT + DELを押して起動します-これは常に機能します。 これは何でしょうか? ここにいくつかの事実: 最新のフェニックスBIOS(メーカーABITはメインボードのサポートをもう提供していません。これはIntel X38-ICH9Rを搭載したIX38 QuadGTです) AHCIを含むと思われるRAIDモードで実行されているストレージコントローラー/バス(既存のRAIDセットのため、RAIDモードで実行する必要があります) ポートの切り替え(ハードウェア)とケーブルの交換が役に立たなかった 手がかりはありますか? 編集1: 私のPSUは次のとおりです。2007年夏のCorsair TX650W。 編集2: 悪いニュースの皆さん、私は3つすべてのハードディスク(ポート01、03、05)とDVD-ROMドライブ(ポート04)から電源コネクタを外したので、SSDのみが接続されていました-同じ効果がありました。コールドスタート状態から起動できませんが、数分後です。また、1回のテストでポートを04に交換しましたが、成功しませんでした。
9 boot  ssd  raid  ahci 

2
空のドライブでのmdadm RAID Fast Setup?
mdadmを使用して、一部のRAID5ディスクをRAID6として再作成しています。気になるドライブのデータはありません。 RAIDのセットアップには形状のセットアップに時間がかかります-ストライプ化およびパリティー計算が必要なデータがある場合は受け入れますが、これらのドライブでは空であるか、少なくとも空であると見なします。 パリティの計算をスキップして、スーパーブロックを設定して実行するようにmdadmに指示する方法はありますか。それ以外の場合、移動するデータがないときに、この時間を正確に何に費やしているのでしょうか。 md3 : active raid6 sdf3[5] sde3[4] sdd3[3] sdc7[2] sdb3[1] sda3[0] 1953114112 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/6] [UUUUUU] [>....................] resync = 1.3% (6790144/488278528) finish=409.3min speed=19604K/sec --assume-clean正しいとわかっているRAIDアレイを含む既存のディスクのセットからアレイを再構築している場所については話していません。空と見なされるべき配列、正しくストライプされていないと見なされるべき配列について話している。 したがって、この質問のために、デバイスにゼロが事前に入力されているとしましょう。


3
ハードウェアRAIDとソフトウェアRAIDの違いは何ですか?
新しいサーバー(Small Business Server 2008)を構築していますが、組み込みのRAIDコントローラー(AMD SB700)を動作させることができず、基本的にServer 2008での動作をあきらめています。 しかし私の質問は ... RAID 1のハードウェア(これなど)とソフトウェア(ウィンドウの組み込みドライブミラーリング)の間に実際の違いはありますか? ドライブが同じモデルなどであると仮定すると、私の推測/希望的思考に基づいて、無視できる程度の差があるように見えます。

4
RAID 1は3つ以上のドライブを持つことができますか?
最近、先生と相談しました。彼は5つのドライブでRAID 1を設定でき、データはこれらすべてのドライブでミラーリングされると主張していました。 5台のドライブを搭載したRAID 1はそのように動作しないだろうと彼に言いました。これは2つのドライブを持つRAID 1であり、他の3つのドライブをホットスペアとして使用します。 また、RAID 6はRAID 5と同じですが、すべてのパリティチェックを同じドライブに置くことができるとも述べています。RAID 6はRAID 5のようなソリューションで、2つのドライブがパリティに使用されると思いました。 では、誰が正しいのでしょうか?
9 raid  raid-1  raid6 

4
データはどのくらいの期間RAIDキャッシュに残りますか?
ほとんどのハイエンドRAIDカードには、バッテリーアドオンを購入するオプションがあり、電源障害が発生した場合にコントローラーがキャッシュの内容をドライブに書き込むことを完了できます。 バッテリーのバックアップに費用をかけることなく、安価なRAIDをセットアップします。コンピュータにUPSが搭載されている場合、キャッシュされたデータが失われるリスクはどのくらいありますか?UPSにもかかわらず、コンピュータが過熱してマザーボードへの電力を遮断する可能性があります。RAIDバッテリーは、過熱シャットダウン時にキャッシュを保護しますか? ドライブに書き込まれる前に、データはどのくらいの期間キャッシュに残りますか?コントローラーに送信された書き込み操作は、数秒以内にキャッシュから外れると安全に想定できますか?
9 raid  cache 

3
md-software-raidのハードディスクをスタンバイにしても安全ですか?
md-raidに6台のデスクトップハードディスクを備えたホームファイルサーバーがあります。 サーバーは頻繁にアクセスされないので、ハードドライブがアイドル時間(たとえば、hdparm -Sまたはhd-idleコマンドを使用)の後にスタンバイモードに入るとよいと思います。 mdadmを使用している場合、これは安全ですか、それともエラー/ハードディスクの劣化の原因になりますか
9 linux  raid  mdadm 

2
浮動パリティのRAID5とRAID4の目的
RAID5がRAID4よりも優れている理由はまだわかりません。障害が発生した場合の回復に使用される両方の計算パリティビットを理解しています。唯一の違いは、それらのパリティビットの格納です。ここから図を借りましたRAID-5アレイでパリティはどのように機能しますか A B (A XOR B) 0 0 0 1 1 0 0 1 1 1 0 1 RAID4 Disk1 Disk2 Disk3 Disk4 ---------------------------- data1 data1 data1 parity1 data2 data2 data2 parity2 data3 data3 data3 parity3 data4 data4 data4 parity4 最初の行が次のとおりだとします: data1 = 1 data1 = 0 data1 = 1 …

2
「不良ブロック」がファイルに出力を書き込み、そのファイルが空の場合、不良ブロックが見つからなかったことを意味しますか?
最近badblocks、大きなサーバーのハードドライブで実行して問題の可能性を確認しました(SMARTはすべて問題ないことを報告しましたが、確認する必要がありました)。 私が使用したコマンドは次のとおりbadblocks -c 1024 -b 4096 -w -s -o /path/to/myfile.txt /dev/mydrive です。ドライブのダウンタイムが重要だったため、破壊書き込みモードを使用しました。不良ブロックのチェック中にドライブをnukeし、それをRAIDに再度追加する方が速いと判断しました非破壊検査を待つより後の一部でした。 それが完了したとき、myfile.txt作成されましたが、空でした。 これは非常にばかげた質問のようですが、ファイルが空であるということは、不良ブロックが見つからなかったことを示していますよね?のマンページbadblocksはこれを示しているようですが、私はできる限り確認したいと思います。

5
RAID-10アレイ内でミラーリングされているドライブを見つける必要がある
openSUSE 12.2でホームメディアサーバーを実行しています。RAID-10構成で8つの2TBドライブを使用しています。私は故意に2種類のドライブを購入しました。4つはSeagate Barracuda Greenで、もう4つはWestern Digital Redです。私の目標は、アレイ内のミラーリングされた各ペアが異なるドライブ(つまり、1つのSeagateドライブと1つのWDドライブ)で構成されるようにRAIDを構成することです。残念ながら、YaST2 Partitionerはアレイの構造でこのレベルの選択を提供しなかったため、デフォルトのRAID10構造がどのように見えるかを調べようとしています。 私は次のことを知っています: sdc、sdd、sde、sdfはすべてWDドライブです sdg、sdh、sdi、sdjはすべてSeagateドライブ RAIDを作成するときに、デフォルトの「n2」レイアウトを選択しました。これらの2つのソースからの情報に基づく私の推測は、隣接するドライブがミラーリングされている(つまり、sdc == sdd、sde == sdfなど)と思いますが、確実に知りたいです。 http://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10 /server/200725/mirrored-and-stripped-hd-drives-in-raid10 以下は、「mdadm --detail / dev / md0」の出力です。 /dev/md0: Version : 1.0 Creation Time : Sat Mar 16 12:55:11 2013 Raid Level : raid10 Array Size : 7814045696 (7452.05 GiB 8001.58 GB) Used Dev Size …

2
2つのディスクをLAN上の1つの大きな共有として表示する
NASサーバー(linux debian)用に2 TBの2 xディスクを購入しました。両方のドライブをLAN上の1つの大きな4 TBディスクとして表示したい。これは、ソフトウェアRAID(JBOD)またはLVMで可能です。 他のオプションはありますか?1つの大きなプラスは、各オプションで1つのドライブに障害が発生したときに何が起こるかを知ることです(すべてのデータを失うか、それでも動作中のドライブのデータにアクセスできますか?JBODとLVMでも、ドライブに障害が発生した場合はどうなるかわかりません)。 。

3
アクティブパーティションとスペアパーティションを持つRAID1
UbuntuシステムのRAID1ソフトウェアRAIDパーティションで次の問題が発生しています(重要な場合は、10.04 LTS、2.6.32-24サーバー)。 私のディスクの1つ(sdb5)がI / Oエラーを報告したため、アレイで障害があるとマークされました。その後、アレイは1つのアクティブデバイスで劣化しました。したがって、私はハードディスクを交換し、パーティションテーブルを複製し、すべての新しいパーティションをRAIDアレイに追加しました。すべてのパーティションを同期した後、そのうちの1つを除いて、アクティブなデバイスが2つある状態で問題なく終了しました。ただし、以前に障害のあるディスクを報告したパーティションには、新しいパーティションがアクティブデバイスではなくスペアディスクとして含まれていました。 md3 : active raid1 sdb5[2] sda5[1] 4881344 blocks [2/1] [_U] 詳細な外観は明らかにします: root@server:~# mdadm --detail /dev/md3 [...] Number Major Minor RaidDevice State 2 8 21 0 spare rebuilding /dev/sdb5 1 8 5 1 active sync /dev/sda5 それで、ここに質問があります:raidにスペアディスクをアクティブなディスクに変えるように伝えるにはどうすればよいですか?そして、なぜそれがスペアデバイスとして追加されたのですか?これはルートパーティションであるため、アレイを再作成または再構築することはできません。そして、私はSoftware Raid HOWTOでその主題のヒントを見つけることができません。 任意の助けいただければ幸いです。 現在のソリューション 私は自分の問題の解決策を見つけましたが、これが実際の方法かどうかはわかりません。私のレイドを詳しく見てみると、sdb5は常にスペアデバイスとしてリストされていることがわかりました。 mdadm --examine /dev/sdb5 [...] …


3
実用的なRAIDパフォーマンス?
RAIDの一般的な経験則は次のとおりであると常に考えていました。 RAID 0:ストリッピングからの読み取りと書き込みの最高のパフォーマンス、最大のリスク RAID 1:冗長性があり、読み取りにはまともです(異なるハードドライブからファイルの異なる部分から読み取ることができると思います)。書き込みには最適ではありません。 RAID 0 + 1(01):RAID 1の冗長性とRAID 0のパフォーマンスを組み合わせます RAID 1 + 0(10):RAID 0 + 1のわずかに優れたバージョン RAID 5:優れた読み取りパフォーマンス、悪い書き込みパフォーマンス、冗長 この仮定は正しいですか?(およびR / W IOパフォーマンスのJBODセットアップとの比較) 特定の実用的なRAIDセットアップは、ゲーム、ビデオ編集、データベース(アクセスまたはSQL)などのさまざまなアプリケーションに適していますか? ハードディスクドライブについて考えていましたが、これはソリッドステートドライブにも適用されますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.