タグ付けされた質問 「raid」

RAIDは、もともと安価なディスクの冗長アレイ(今日では通常、独立ディスクの冗長アレイと呼ばれる)の頭字語であり、さまざまなアルゴリズム(RAID-レベル)。RAIDは、ハードウェアストレージコントローラーまたはソフトウェアに、通常はオペレーティングシステム/カーネル機能として実装できます。

4
RAID-6:同時に2つの死んだドライブを交換する方が良いですか?
3つの問題のあるドライブがある16ドライブのRAID-6があります。2つはすでに死んでおり、3つ目はSMART警告を発しています。(どのように悪い状態になったかは気にしないでください。) 明らかに、まだ動作しているドライブの前に死んだドライブを交換したいのですが、次の方が良いでしょう: 1つの故障したドライブを交換し、RAIDを再構築してから、もう1つを交換して、再構築します。または 両方のドライブを一度に交換し、両方を並行して再構築しますか? 別の言い方をすれば、1つまたは2つのドライブを再導入することで、冗長性の状態にすばやく戻りますか?2台のドライブを並行して再構築すると、再構築プロセスが遅くなりますか? 重要な場合、コントローラーは3ware 9650SE-16MLです。


4
NVキャッシュを備えたRAIDコントローラーは、SSDアレイのパフォーマンスまたは整合性を改善しますか?
RAID 10のSSDを搭載したサーバー(Dell PowerEdge R740)を購入する予定です。優先事項は書き込みパフォーマンスとデータ整合性です。Linuxを実行します。SSDには、電力損失保護を備えた書き込みキャッシュがあります。 これらは私のRAIDオプションのようです: PERC H330(キャッシュなし)、ソフトウェアRAID(パススルー) PERC H330(キャッシュなし)、ハードウェアRAID(ライトスルー) PERC H730P(2 Gb NVキャッシュ)、ハードウェアRAID(ライトスルー) PERC H740P(8 Gb NVキャッシュ)、ハードウェアRAID(ライトスルー) 私の質問: これらの構成のいずれかが、データ損失または電力損失時の破損の危険にさらされていますか? 最高の書き込みパフォーマンスを得るには、どの構成を期待すべきですか? NVキャッシュには、考慮していない他の利点はありますか? 関連する質問: ソフトウェアとハ​​ードウェアRAIDのパフォーマンスとキャッシュの使用 LSI FastPathとソフトウェアRAIDの違いは何ですか?
20 raid  cache  ssd 

4
それでも、ハードドライブの注文を複数のベンダーに広げるべきですか?
むかしむかし、6台以上のハードドライブが必要なときは少なくとも2つの小売店に注文を広げ、20台以上のドライブを注文するときには3つ注文するように教えられました。ディスクの同じメーカーとモデルを使用しますが、それらを異なる場所から調達します(これは、すべてのディスクが正確に一致した場合にのみRAIDカードが正常に機能するときに戻ってきました)。ディスクをインストールするとき、各RAIDアレイに各ソースのディスクが混在していることを確認してください。 ここでの目的は、ディスクの数が多くなく、ベンダーがそれらを順次貨物に追加するだけで問題が発生しないようにすることです。これにより、同じRAIDアレイ内の複数のディスクがほぼ同時に故障し、データが失われる可能性があります。 これはまだ良いガイダンスですか、それとも最も合理的なエンタープライズベンダー(つまり、主に消費者に対処するnewegg、tiger direct、またはamazonではありません)は状況を認識しており、今では正しく対処していますか?それは製造業者レベルで処理されていますか(製造の実行はベンダー納入前に分割されます)?それはあなたが求めなければならないものですか?それとも私は心配しすぎていますか?
20 raid  hard-drive 

3
複数のディスクを1つのディレクトリとしてマウントできますか?
異なるディスクを1つのディレクトリとしてマウントする方法はありますか?ext4パーティションを持ついくつかのディスクがあると仮定します。 /dev/sda1 1Tb mounted as /store1 /dev/sda2 2Tb mounted as /store2 /dev/sdb1 2Tb mounted as /store3 /dev/sdb2 2Tb mounted as /store4 /storeall7Tbのスペースを持ち、それらを1つの論理ディレクトリとしてマージしたいので、1つのrsyncコマンドでそれを埋めることができます。 Linuxでは可能ですか?どのファイルシステムを使用する必要がありますか?
20 linux  raid  mount  partition 

6
同様の障害時間の可能性を減らすために、新しいRAID 1ペアの1つのディスクを「実行」する必要がありますか?
2つの新しい4TBハードドライブのRAID1アレイをセットアップしています。 以前にどこかで聞いたことがありますが、新しいハードドライブのRAID1アレイを同時に購入すると、同じような時点で障害が発生する可能性が高くなります。 そのため、短時間で両方が故障する可能性を減らすために、ハードドライブの1つを一定期間(数週間程度)単独で使用することを検討しています。(未使用のドライブはドロワーで切断されたままになります) これは合理的なアプローチのように見えますか、それとも単に時間を無駄にしているだけですか?

8
スナップショットとRAIDは、オンサイトの優れたバックアップソリューションとしてカウントされますか?
バックアップを取る理由として考えられる2つの主な理由は、スナップショットとRAIDの両方をbtrfsと共に使用する場合に注意が必要と思われます。(ここでRAIDとは、RAID1または10を意味します) データの偶発的な削除:スナップショットはこのケースをカバーします ドライブの故障とビットの腐敗 完全な障害:RAIDはこのケースをカバーします 不良データを返すドライブ:RAID + btrfsのエラー修正機能がこのケースをカバー オンサイトのバックアップソリューションとしては、これはうまく機能しているようで、別のデータストレージデバイスは必要ありません! ただし、RAIDとスナップショットの両方が適切なバックアップとは見なされないと聞いているので、何か見落としているのではないかと思っています。 btrfsがまだ成熟した技術ではないことを除けば、私が見落としたことはありますか?または、私の考えは正しいですか、これは有効なオンサイトバックアップソリューションですか?

5
Linuxでext4 + LVM +ソフトウェアRAIDでSSD TRIM(破棄)を動作させることは可能ですか?
Linux(現在2.6.37)上のmdでRAID1 + 0を使用してmdデバイスを作成し、LVMを使用してデバイス上でボリューム管理を提供し、次にext4をLVMボリュームグループのファイルシステムとして使用します。 SSDをドライブとして、TRIMコマンドがレイヤー(ext4-> LVM-> md-> SSD)を介してデバイスに伝播することを確認したいと思います。 最近の2.6.3xカーネルには、Device Mapperシナリオのより多くのカバレッジを含む、多くの新しいSSD関連のTRIMサポートが追加されたように見えますが、それを適切にカスケードダウンさせることはまだできないようです。 これはまだ可能ですか?もしそうなら、どのように?そうでない場合、何か進展がありますか?
18 linux  raid  lvm  ssd  trim 

2
16 TBのデータディスクでGPTが必要ですか?
私が作った/dev/sdb私が上で直接XFSを置くためにtempedていたハードウェアRAID、使用して16 TBのディスクである/dev/sdbパーティションを行わずに。将来、これを2倍に拡大する必要があります。 ハードウェアは、前面に12個のSASディスクトレイを備えたHP ProLiant DL380 Gen 9です。 パーティションを作成しないことの1つの利点は、再起動が必要ないことですが、2 TBを超えるディスクでは状況が異なりますか? GPTが必要ですか、それともRAIDアレイとXFSなしでGFSを拡張するときに問題が発生しますか?
17 linux  raid  hp  xfs  gpt 

5
HBAカードとRAIDカードの違いは何ですか?
HBAとRAIDの違いを知っていると思いました。 私の考えでは、HBAはメインマザーボード/ CPUからオフロードされ、単にJBODです...通常、外部SASポートがありますが、RAIDカードはHBAと同じ仕事をしますが、すてきなRAIDレベルと場合によってはバッテリーバックアップ+その他を追加します利点。 製品のLSI Webサイトを見ると、RAIDに組み込まれたHBAカード(LSI SAS 9211-8iホストバスアダプターなど)があることがわかります。 だから...明らかに私は間違っています! HBAカードとRAIDカードの違いは何ですか?

6
RAID 1 + 6がより一般的なレイアウトではないのはなぜですか?
ネストされたRAIDレベル1 + 5または1 + 6がほとんど聞こえないのはなぜですか?ネストされたRAIDレベルWikipediaの記事は現在、彼らのセクションが含まれていません。特にRAID 1 + 0トリプルミラーリングと比較した場合、RAID 1 + 0よりも一般的ではない理由はわかりません。 ドライブ容量がパフォーマンスや信頼性よりも速く増加しているため、再構築時間がますます問題になっていることは明らかです。RAID 1はより迅速に再構築され、RAID 1ペアのRAID 0アレイは問題を回避するが、確かにRAID 1ペアのRAID 5または6アレイも回避すると言われています。少なくとも、RAID 1 + 0の一般的な代替品になると期待しています。 16個の1TBドライブの場合、バックアップに頼る素朴な確率の計算は次のとおりです。つまり、ドライブが確率で独立しているという単純な仮定で: RAID | storage | cumulative probabilities of resorting to backup /m 1+0 | 8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000 1+5 | 7TB …
17 raid  raid1  raid6 

12
バックアップサーバーでRAIDを使用する必要がありますか?
バックアップサイズがテープ容量を超えているため、テープではなくハードディスクに保存するSymantec Backup Execを使用して、新しいバックアップサーバーをセットアップするように求められました。 「バックアップ」であるため、バックアップサーバーがあらゆる種類のRAIDを実行するのに本当に意味があるのか​​、それとも利点があるのか​​と思いました。 私にとっては、追加コストを正当化するメリットはそれほど大きくありません。 他の人の意見を見てみたいです。 ありがとう!
17 backup  raid 

7
問題を示すSMARTセクターの再割り当てはいくつですか?
私は1か月以上たっているNAS機器を持っています。ハードドライブのSMARTデータから生成されたアラートをメールで受け取るように構成されています。1日後、ハードドライブの1つが、セクターが悪化して再割り当てされたと報告しました。最初の1週間で、その数は問題のハードドライブの合計6セクターにまで上昇しました。1か月後、その数は再割り当てされた9つのセクターになります。レートは間違いなく減速しているようです。 NASはRAID-5構成で6台の1.5 TBドライブで構成されています。このような大容量ドライブでは、セクターが時々故障することが予想されるため、最初のいくつかのセクターがいつ移転するか心配していませんでした。しかし、他のどのディスクも問題を報告していないのは気になります。 再配置の割合、または再配置の総数で、ドライブの状態を心配する必要がありますか?これは、ドライブの容量によって異なる場合がありますか?

4
ローエンドハードウェアRAIDとソフトウェアRAID [非公開]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 去年閉鎖されました。 古いPCでローエンドの6TB RAID 1アーカイブを構築したい。 MB: Intel d2500hn 64bit CPU: Intel Atom D2500 RAM: 4GB DDR3 533 MHz PSU: Chinese 500W NO GPU 1x Ethernet 1Gbps 2x SATA2 ports 1x PCI port 4x USB 2.0 LinuxでRAID1アーカイブを構築したい(CentOS 7と思うので、必要なものをすべてインストールする、ownCloudなどと思う)、ホームローカルネットワークで使用します。 10〜20ドルのRAID PCIコントローラーまたはソフトウェアRAIDのどちらが良いですか? ソフトウェアRAIDの方が優れている場合、CentOSではどちらを選択すればよいですか?外部USBにシステムを配置し、コネクタで2つのディスクを使用する方が良いでしょうか、それともシステムを1つのディスクに配置してからRAIDを作成する必要がありますか? 3ディスクRAID 5を実行する場合、ハードウェアRAID PCIまたは単にPCI SATAコネクタを選択する必要がありますか?

3
RAIDパフォーマンスが突然低下する
最近、データベースクエリの実行に通常よりはるかに時間がかかっていることに気付きました。調査の結果、ディスクの読み取りが非常に遅くなっているようです。 RAIDコントローラーがBBUで再学習サイクルを開始し、ライトスルーに切り替えることにより、過去に同様の問題が発生しました。今回はそうではないようです。 私はbonnie++数日間で数回走りました。結果は次のとおりです。 22-82 M / sの読み取りはかなりひどいようです。ddrawデバイスに対して数分間実行すると、15.8 MB / sから225 MB / sの読み取りが表示されます(以下の更新を参照)。iotopIOを競合する他のプロセスを示していないため、読み取り速度がそれほど変動する理由はわかりません。 RAIDカードは、XFSファイルシステム(RAID1で構成された2つのSSD上のOS)を備えたRAID10の12個のSASドライブ(15k、300GB)を備えたMegaRAID SAS 9280です。SMARTアラートは表示されず、アレイは劣化していないようです。 私も実行xfs_checkしましたが、XFSの一貫性の問題はないようです。 ここでの次の調査手順は何ですか? サーバーの仕様 Ubuntu 12.04.5 LTS 128GB RAM Intel(R) Xeon(R) CPU E5-2643 0 @ 3.30GHz の出力xfs_repair -n: Phase 1 - find and verify superblock... Phase 2 - using internal log - scan filesystem freespace …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.