タグ付けされた質問 「raid」

RAIDは、もともと安価なディスクの冗長アレイ(今日では通常、独立ディスクの冗長アレイと呼ばれる)の頭字語であり、さまざまなアルゴリズム(RAID-レベル)。RAIDは、ハードウェアストレージコントローラーまたはソフトウェアに、通常はオペレーティングシステム/カーネル機能として実装できます。

2
既存のRAID1を新しいLinuxシステムに接続するにはどうすればよいですか?
現在、単一のハードドライブでRAID1を実行しています(はい、ミラーはありません)。次のアルゴリズムを使用してシステムを再編成することは可能ですか? 別の単一ディスクRAID1を(同じタイプの別のHDDに)セットアップし、それをパーティション分割して、そこにDebianの新しいインスタンスをインストールします。 古いシングルディスクRAID1セットアップをマウントし、そこからすべてのデータを新しいRAIDにコピーします。 次に、古いディスクを再フォーマットして、新しいRAIDセットアップに含めます。 私はほとんど2番目の点を疑っています-どのようにすればよいですか?

5
LVMミラーリングVS RAID1
LVMミラーリングについて少し学んだので、私は柔軟性を獲得するために使用している現在のRAID-1スキームを置き換えることを考えました。 問題は、インターネットで見つけたものによると、LVMは次のとおりです。 少なくとも読み取りでは、RAID-1よりも遅くなります(単一のボリュームのみが読み取りに使用されるため)。 電源の中断には依存せず、データ損失を防ぐためにディスクキャッシュを無効にする必要があります。 http://www.joshbryan.com/blog/2008/01/02/lvm2-mirrors-vs-md-raid-1/ また、少なくとも私が読んだいくつかのセットアップガイド(http://www.tcpdump.com/kb/os/linux/lvm-mirroring/intro.html)では、実際にはLVMログを保存するために3番目のディスクが必要なようです。これにより、2台のディスクのインストールではセットアップを完全に使用できなくなり、使用するミラーディスクの量を多くのディスクで減らします。 誰もが上記の事実についてコメントし、LVMミラーリングを使用した彼の経験を教えていただけますか? ありがとう。
9 linux  raid  lvm  mirroring 

5
カーネル:ジャーナルコミットI / Oエラー
Dell 1950サーバーで問題が発生しています。RHEL 4.6をOracleおよびその他のソフトウェアとともにここにインストールしています。 sshセッションとサーバーに接続したモニターで、「カーネル:ジャーナルコミットI / Oエラー」というエラーメッセージがランダムに表示され、「EXT3-fsエラー(デバイスsda5)」というエラーが表示されます。 start_transaction:ジャーナルは中止されました。」 これは何度か発生しましたが、インストール中の同じ時点では発生していません。実際、前回はシステムが稼働していて、データベースをOracleにインポートしようとしていました。 これはいくつかのハードドライブで発生したので、問題ではないと確信しています。これは私にレイドコントローラーが悪くなっていると思います。 皆さんはどう思いますか? **更新** それが悪いハードドライブだったことはかなり確かです。私はサーバーに別のドライブを投げました、そしてそれは問題なしで約48時間走っていました。
9 linux  raid  ext3 

5
SSDキャッシュストアを備えたSquidまたはその他のHTTPキャッシュ?
SSDドライブを搭載したシステムにSquid(または場合によってはニス)キャッシュを設定することを検討しています。 明らかな利点は、これらのシステムの読み取り速度が優れていることであり、ヒット率はかなり高いと私は予想しています。 7台のSSDをRAID構成に配置できると仮定します。(もっとたくさん詰め込むことができるいくつかのケースがあります) 実装に関する質問: RAID0を使用する必要がありますか?(私はドライブが最終的に故障することを期待しているので、これは危険に思われます。) RAID10を使用する必要がありますか?(これにより、コストがかかるディスクフットプリントが半分になります。) RAID5を使用する必要がありますか?(SSDには「悪い」書き込みパフォーマンスと書き込み制限があることが知られており、追加のパリティ書き込みはすべて、これをかなり遅くする可能性があります。) 各ディスクを独自のSquidデータストアとして扱う必要がありますか?(Squidは複数のデータストアをどの程度適切に処理しますか?そして、1つが失敗した場合、または何が起こった場合にどうなりますか? データストアを無視してSSDを大きなSWAPパーティションに作成し、Linux VMにそれを実行させるべきですか?(ずさんなようです) 本番環境でSSDを使用している人々からのアドバイスは大歓迎です。(HTTPキャッシュに使用している場合はesp)
9 raid  http  squid  cache  ssd 

2
サーバーのディスククラスターのRAIDを超えて調査すると、ダイナミックディスクプールは同等ですか?[閉まっている]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 昨年休業。 ハイパーコンバージドシステムの開発により、分散ストレージを処理するためのRAID以外のテクノロジー(たとえば、ceph、VSAN、nutanixのような分散ストレージ)を見ることができます。 しかし、大きなディスクがたくさんある単一のサーバーで使用できるオブジェクトストレージから派生したオープンソーステクノロジーはありますか?たとえば、12To sataディスクの数十は、データの安全性を保証しますが、ディスク。したがって、ダイナミックディスクプールは、クラスター化されていないRAIDの一種であり、iscsiのようなブロックレベル、またはzfsやbrtrfsのようなファイルシステムレベルで使用できます。 SYNOLOGYベイ(NFS、iscsiターゲット、SMB)に似た機能を提供したいのですが、ブロックストレージ用のRAIDはありません。 ご指摘ありがとうございます。

3
LinuxソフトウェアRAID 5でmkfs操作に非常に時間がかかる
4 * 2 TBのディスクで構成されるLinuxソフトウェアRAIDレベル5をセットアップしました。ディスクアレイは64kのストライプサイズで作成され、他の構成パラメーターはありません。最初の再構築後、ファイルシステムを作成しようとしましたが、このステップには非常に時間がかかります(約30分以上)。私はxfsとext3ファイルシステムを作成しようとしましたが、どちらも長い時間がかかりました。mkfs.ext3を使用して、次のような動作が確認できました。 iノードテーブルの書き込みは、1053(〜1秒)に達するまで高速で実行され、その後約50を書き込み、2秒待機してから、次の50が書き込まれます(コンソールの表示によると)。 Control + Cで操作をキャンセルしようとすると、本当にキャンセルされる前に30分間ハングします 個々のディスクのパフォーマンスは非常に良好です。それぞれのディスクで個別にbonnie ++を実行し、約95 / 110MB /秒の書き込み/読み取り値を使用しています。すべてのドライブでbonnie ++を並行して実行した場合でも、値は約10 MBしか減少しません。したがって、ハードウェア/ I / Oのスケジューリングは一般的に問題の原因として除外しています。 stripe_cache_sizeとreadahead sizeのさまざまな構成パラメーターを試してみましたが、成功しませんでしたが、ファイルシステムの作成操作に関係があるとは思いません。 サーバーの詳細: Linuxサーバー2.6.35-27-generic#48-Ubuntu SMP x86_64 GNU / Linux mdadm-v2.6.7.1 これをさらにデバッグする方法について誰かが提案をしていますか?

3
RAID 0またはJBODはホームメディアサーバーに適していますか?[閉まっている]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 6年前休業。 外付けの2ベイドライブエンクロージャ(OWC Mercury Elite-AL Pro)をFireWire 800を介してMac Mini(私のホームメディアサーバー)に接続しています。有線ギガビットを介して家の中の他のコンピューターにメディアをストリーミングしています。現在、独立して使用している2つの1.5 TBドライブがあります。メディアは1つにあり、夜間はバックアップとしてファイルを別のドライブにミラーリングしています。しかし、ドライブをいっぱいに近づけるにつれ、これらの2つのドライブをスパンして合計約3 TBにし、バックアップ用に別のドライブを購入したいと考えています。外部エンクロージャーはRAID 0とJBODの両方をサポートしますが、この状況でどちらがより良いかは分かりません。 RAID 0は、ストリーミングビデオ(おそらく一度に複数のストリーム)のJBODに比べてパフォーマンスが向上しますか? それぞれがドライブのMTBFにどのように影響しますか? 一般に、RAID 0またはJBODを選択する必要がありますか、それともそれらを独立しておく必要がありますか?

3
cephはハードウェアRAIDアレイ(LUN)をOSDドライブとして処理できますか?
私はcephにかなり慣れていないので、cephがハードウェアレベルのRAID HBAをサポートしているかどうかを調べます。 悲しいことに、情報を見つけることができませんでした。私が見つけたのは、OSDにはプレーンディスクを使用することをお勧めすることです。しかし、これにより、PCIe、ディスクのインターフェイスの帯域幅が高くなり、CPUの要件が非常に高くなります。ハードウェアRAIDコントローラーはすでにこれらの要件を解決しており、PCIe、CPU、その他のリソースを消費することなく、セットアップに基づいて高い冗長性を提供します。 したがって、私が望むセットアップは、必要なRAIDレベルが何であれ、コントローラレベル(RAID 5、RAID 6)でディスクの冗長性を処理するローカルRAIDコントローラを持つことです。cephを使用してホスト、シャーシ、ラック、行、データセンター、またはCRUSHで可能なまたは計画可能なものの間でより高いレベルのレプリケーションを実行したいRAID LUNの上に そのセットアップでの経験はありますか? 推奨設定ですか? このハードウェアRAID統合に関する詳細なドキュメントはありますか?


2
RAIDは一貫性のないデータをどのように処理できますか?
RAID 1とRAID 5(およびそれらの兄弟10と50)は、それぞれミラーリングとパリティチェックによってデータの冗長性を実現します。これにより、ディスク上のセクター(またはディスク全体)が読み取り不能になった場合でも、RAIDアレイはデータにアクセスできます。RAID 6(または60)は、追加のチェックを使用して二重障害を許容します。 しかし、RAIDアレイは、完全に読み取り不可能ではないが、明らかに矛盾しているデータをどのように扱うことができますか? ストライプ上のfeデータがディスク上で変更されるなどのエラーが発生したが、その変更が他のストライプに反映されない場合、ストライプ全体が不整合になります。ミラーリングされたセットで、ディスクが「このビットは0」であるのに対し、他のディスクが「このビットは1」である場合、RAIDコントローラはどのディスクが正しいかをどのようにして知ることができますか?同じ理由がRAID-5ストライプに適用でき、ストライプの実際にどのセクターが間違っているかを簡単に知ることができないという複雑さが加わります。また、RAID 6は二重のチェックでこの問題を軽減しますか、それとも、データが実際に読み取り可能であるにもかかわらず、特にRAID 6アレイに多くのディスクが含まれる傾向があるため、データの破損からの回復に問題があるのでしょうか? これは理論的にはチェックサムによって解決でき、データのコピー(またはパリティ)が正しいものであることを確認します。しかし、RAIDコントローラーは実際にこの種のチェックサムを実装しますか(もちろん、追加のスペースが必要になります)?それとも、ほとんどのファイルシステムがその内容をチェックサムすることができ、チェックサムするOSレベルで処理する必要がありますか?これが当てはまる場合、RAIDコントローラーの一般的なアプローチがOSを基盤のストレージレイヤーからできるだけ抽象化することである場合、RAIDコントローラーに「ストライプZのディスクYのセクターXのデータが間違っている」とどのように伝えることができますか?可能?

1
RAIDアレイのトラブルシューティング方法を教えてください。
今朝、RAIDアレイにチェックインしたところ、次のようになりました。 $ cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md1 : active raid1 sdc7[0] 238340224 blocks [2/1] [U_] md0 : active raid1 sdc6[0] 244139648 blocks [2/1] [U_] md127 : active raid1 sdc3[0] 390628416 blocks [2/1] [U_] unused devices: <none> $ 私の考えでは、これは私のアレイの1つのディスクが故障していることを意味します、これは本当ですか? 今後、適切なトラブルシューティングを行うにはどうすればよいですか?私の/etc/mdadm/mdadm.confように見えます: $ cat /etc/mdadm/mdadm.conf …
8 raid  mdadm 

4
CentOS 6用に24 x 1.2 TBドライブでRAID 5、特にストライプサイズを構成するにはどうすればよいですか?
24 x 1.2TBディスク(および1TB RAM)を搭載したDell R920の場合、高速IOを実現するためにRAID 5構成をセットアップしようとしています。サーバーは、非常に大きなファイルを含むすべてのサイズのファイルを読み書きするKVM VMをホストするために使用されます。サーバーが何らかの理由で故障した場合、故障した部品を交換した後、ベアメタルからサーバーを再プロビジョニングするだけなので、私はデータの安全性にそれほど関心がありません。 したがって、パフォーマンスが主な関心事です。 RAID 5を検討しています。RAID5を使用すると、データを複数のスピンドルに分散できるため、パフォーマンスが向上し、主な懸念事項ではありませんが、データ保護も得られます。NICはデュアル10Gbpsです。 この質問はRAID 5に限定します。これは、これにより最高のパフォーマンスが得られると考えているためです。説得力のあるパフォーマンス上の理由がある場合にのみ、他のことを検討します。しかし、私はRAID 5構成に関連する答えを好むと思います。 さて、上で述べたように、これは私たちの現在の設定の考えです: 24台のハードドライブ:RMCP3:1.2 TB、10000、2.5インチ6 Gbps RAIDコントローラー:H730P、12Gbps SASサポート、2GB NVキャッシュ 1ホットスペア(ドライブが故障した場合に寿命を延ばすため) 23個のデータドライブ(そのうち1個はパリティとして、22個はデータ用に残ります) ストライプサイズ:1MB(1MB / 22データドライブ=ディスクあたり最大46.5KB-または、ストライプサイズを誤解していますか?) 読み取りポリシー:適応型先読み 書き込みポリシー:書き戻し ディスクキャッシュポリシー:有効 ストライプサイズがデータドライブ全体の合計である場合、ドライブあたり最大46.5 KBと計算すると、非常に優れたスループットが得られます。ストライプサイズがスピンドルごとの場合、これはすべて間違っています。 ストライプサイズは、単一のファイルが取るサイズにもなりますか?たとえば、2KBのファイルがある場合、1MBのストライプサイズを選択すると、メガバイト全体が無駄になることになりますか?または、複数のファイルがストライプ内に存在できますか? 最後に、CentOS 6.5(または最新)をインストールするときに、ファイルシステムがRAIDを最適に使用できるようにするために特別なことを行う必要がありますか?たとえば、mkfs.ext4には、オプション-E strideがあり、RAID構成に対応する必要があると言われています。しかし、CentOSのインストール中に、これを行う方法はありますか? 高速IOのためにRAID 5を構成することについてのあなたの考えに感謝します。

3
LANを介してrawディスクイメージを移行する
これが私の状況です: 同じデータセンター内にある2つの専用サーバーと、それらの間のギガビットイーサネット。 両方の専用サーバーが、Debian Squeezeをベースにしたレスキュー環境で起動し、追加のツールとユーティリティが追加されました。ソフトウェアのダウンロード、パッケージのインストール、および/または必要に応じたコンパイルのための十分なtmpスペース(両方のボックスで32GBのRAM)。 両方の専用サーバーには、約 3TBの使用可能なスペースがあります。 「ソース」サーバーには、Adaptec 4ポートコントローラを備えたハードウェアRAID-10に1.5TBのディスクが4台あります。 「宛先」サーバーには、Adaptec 2ポートコントローラーを備えたハードウェアRAID-1に2 x 3TBのディスクがあります-他と同じ世代ですが、ポート数が異なります。 上の使用可能なブロックの数は/dev/sda10 MB未満しか異なりませんが、宛先サーバーのアレイは、何らかの理由で数メガ小さくなっています。 両方のRAIDアレイは、すべての構成ディスクのディスク表面全体を使用して1つの単一のRAIDボリュームを作成するように構成されています。 オペレーティングシステムはMBRモードで起動します。UEFIブートは使用されません。 私がやりたいこと: ブロックレイヤーで、OSイメージ全体(GPTパーティションテーブルのGRUB2ブートローダー、/ bootパーティション、および/パーティションのみで構成される)を「ソース」サーバーから「宛先」サーバーにコピーします。 可能であれば、コピーは「ライブ」で行われる必要があります。これは、コピーとしてディスクイメージをハードディスクに解凍しない限り、宛先側にディスクイメージの適切なファイルを保存するための十分なスペースがないことを意味します行われています。サーバー間のギガビットイーサネット接続は十分信頼できるので、これで十分です。もちろんfsck、転送の前後でファイルシステムが正常であることを確認するために、両端(ソースと宛先)で実行します。 可能であれば、ネットワークを介してブロックを転送しないでください。ブロックは、各パーティションの構成ファイルシステムでは使用されません(すべてのパーティションはext4としてフォーマットされます)。これは、「ソース」ディスクの50%以上が/パーティションの空き領域であるためです。 /パーティションのサイズを調整して、コピー時に、コピー先ディスクのわずかに小さいサイズに収まるようにサイズ変更します。 コピーが成功したら、各ボリュームをマウントし、静的IPへの参照を修正して、新しいサーバーのIPを反映させます。(これ以上の助けなしでこれをうまく行うことができます) 私の質問: 私は、必要がある最初の大きさの間(バイト単位)の違いを計算/dev/sda各サーバー上に、次に使用e2resize非破壊的にサイズ削減/のパーティションをソース側に、それはデスティネーション側のスペースに収まるように? 私は実行する必要がありdd、生のブロックデバイスに/dev/sda宛先(上にソースからssh)、又は Iで先に等価パーティションレイアウトを作成する必要があり、実行dd毎に分割?パーティションを一度に処理すると、ブートローダーの問題が残りますが、パーティションをdd一度に処理しない場合は、宛先が保持できる最大数のバイトを書き込んだら、データの転送を停止する必要があることに注意してください。(うまくいけば/、ソースのパーティションレイアウト内の他のすべてのパーティションの論理的に「右側」にある最後のブロックのパーティションの最後を「閉じます」。 その他いくつか。詳細: ソースボックスのホストOSは、複数のOpenVZゲストを実行しているUbuntu Server 12.04です。 両方のボックスが起動してレスキュー状態になるため、実行中のオペレーティングシステムによる基本データへの変更を予期せずに、直接ディスクアクセスが可能になります。

2
パフォーマンスに影響を与えずに、ハードウェアRAID構成で異なるドライブ速度とサイズを使用できますか?
具体的には、論理ドライブ1(a)としてミラーリングされた2つの500GB 7200rpm SATAドライブと論理ドライブ2(b)としてミラーリングされた同じ2つのRAID 1アレイ構成があります。論理ドライブ3(c)と同じミラー方式で2つの1tb 5400rpmドライブを追加したいと思います。これらのドライブは、時折必要なアクセスを伴うファイルストレージとしてのみ機能するため、速度よりもスペースの方が重要です。 この構成が実行可能かどうかを調査する際に、アレイは最小のドライブサイズと最も遅い速度しか認識しないと言われ、読みました。ただし、私の理解では、ペア自体が混在していない限り(この場合は混在していない)、アレイはすべてのドライブを実際の速度とサイズで表示および使用する必要があります。 追加のドライブを購入する前に確認したいのですが。誰か洞察力?

2
HP SmartArray P400:故障した論理ドライブを修復する方法?
SmartArray P400コントローラー(256 MBキャッシュ/バッテリーバックアップを含む)を備えたHPサーバーで、再構築されない、故障した物理ドライブが交換された論理ドライブを使用しています。 これは、エラーを検出したときの外観です。 〜#/ usr / sbin / hpacucli ctrl slot = 0 show config スロット0のSmartアレイP400(組み込み)(SN:XXXX) アレイA(SATA、未使用スペース:0 MB) 論理ドライブ1(698.6 GB、RAID 1、OK) 物理ドライブ1I:1:1(ポート1I:ボックス1:ベイ1、SATA、750 GB、OK) physicaldrive 1I:1:2(ポート1I:box 1:ベイ2、SATA、750 GB、OK) アレイB(SATA、未使用スペース:0 MB) 論理ドライブ2(2.7 TB、RAID 5、障害) physicaldrive 1I:1:3(ポート1I:box 1:ベイ3、SATA、750 GB、OK) physicaldrive 1I:1:4(ポート1I:box 1:ベイ4、SATA、750 GB、OK) physicaldrive 2I:1:5(ポート2I:box 1:ベイ5、SATA、750 GB、OK) 物理ドライブ2I:1:6(ポート2I:ボックス1:ベイ6、SATA、750 GB、障害) physicaldrive 2I:1:7(ポート2I:box 1:ベイ7、SATA、750 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.