タグ付けされた質問 「raid」

RAIDは、もともと安価なディスクの冗長アレイ(今日では通常、独立ディスクの冗長アレイと呼ばれる)の頭字語であり、さまざまなアルゴリズム(RAID-レベル)。RAIDは、ハードウェアストレージコントローラーまたはソフトウェアに、通常はオペレーティングシステム/カーネル機能として実装できます。

2
ZFSプールの遅い順次読み取り
この問題について関連する質問がありますが、複雑すぎて大きすぎたため、問題をNFSとローカルの問題に分割する必要があると判断しました。私はzfs-discussメーリングリストでこれについて尋ねようとしましたが、あまり成功しませんでした。 同じサーバー上のNFS / CIFSディレクトリ間の低速コピー 概要:設定方法と期待される内容 4つのディスクを持つZFSプールがあります。ストライプ化された2つのミラーとして構成された2TB RED(RAID 10)。Linuxでは、zfsonlinux。キャッシュまたはログデバイスはありません。 データはミラー間で分散されます(ZFSにとって重要) 各ディスクは147MB /秒で並列に読み取り(raw w / dd)、合計で588MB /秒のスループットを実現します。 同様の4TB REDディスクのベンチマークに基づいて、各ディスクからのシーケンシャルデータの約115MB /秒の書き込み、138MB /秒の読み取り、および50MB /秒の再書き込みを期待しています。最近はどのディスクでも実行できるため、100MB /秒以上の読み取りまたは書き込みを期待しています。 負荷がかかってシーケンシャルデータの読み取りまたは書き込みを行っているときに、4つのディスクすべてでIO使用率が100%になると思いました。そして、そのディスクは100%の使用率で100MB /秒以上を出力します。 このプールでは、1つのディスクで約2倍の書き込み、2倍の書き換え、4倍の読み取りパフォーマンスが得られると思いました。 NEW同じプールのext4 zvolはZFSとほぼ同じ速度になると思いました 私が実際に得るもの プールの読み取りパフォーマンスが思ったほど高くない 数日前のプールでのbonnie ++ベンチマーク バージョン1.97 ------順次出力-------順次入力--ランダム- 同時実行性1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks-- マシンサイズK /秒%CP K /秒%CP K /秒%CP K /秒%CP K …
10 linux  raid  performance  zfs  zpool 

1
mdadmおよび4kセクター(高度なフォーマット)
Serverfaultには4kセクターのディスクの調整について多くの質問がありますが、1つだけはまだはっきりしていません。 RAID1 + LVMの調整に成功しました。私がしたことの1つは、mdadmスーパーブロックバージョン1.0(スーパーブロックをディスクの最後に格納する)を使用することでした。 マンページはこれを言っています: 異なるサブバージョンは、デバイスの異なる場所にスーパーブロックを格納します。末尾(1.0の場合)、先頭(1.1の場合)、または先頭から4K(1.2の場合)のいずれかです。「1」は「1.0」と同等です。「デフォルト」は「1.2」と同等です。 デフォルトである1.2バージョンは4kセクタードライブ用に作られていますか?最初から4k +スーパーブロックの長さは4kの倍数ではないため(私が正しく覚えていれば、スーパーブロックの長さは約200バイトです)、私が見る方法ではそうではありません。 これについての洞察は大歓迎です。 編集: mdadmスーパーブロック1.1および1.2は4kアライメント用であると、以下に回答しました。私はデバイス全体のレイドを作成しました: mdadm --create /dev/md4 -l 1 -n 2 /dev/sdb /dev/sdd 次に、それに論理ボリュームを追加しました。 vgcreate universe2 /dev/md4 アレイは16 MB /秒で同期しています。 md4 : active raid1 sdd[1] sdb[0] 1465137424 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (13100352/1465137424) finish=1471.6min speed=16443K/sec だから私はそれが正しく調整されているとは思いません。 (ディスクは1.5 TB WD …

4
1つの大きなRAID 10と複数の小さなアレイを比較しますか?
私の質問は、特定のアプリケーション用に小さなアレイを作成するのではなく、RAID 10などの高速な読み取りと書き込みのパフォーマンスを備えた1つの大きなアレイを単に作成することが適切なのはいつですか? 全体的なI / O要件がそれほど大きくない場合、優れた読み取りおよび書き込みパフォーマンスを持つ単一のアレイは、さまざまなアクセスパターンを持つアプリケーションがピークに達した(おそらくまれな)時間を除いて、すべてのアプリケーションに全体的に優れたパフォーマンスを提供できるようです同時に(データベースが非難されている間に大量の大きなファイルをコピーする)。 ペアスピンドルをトランザクションログなどの特定のタスク専用にしていて、ワークロードで汗をかいてさえいない場合...そのワークロードをより大きなRAID 10に配置しないのはなぜですか?これらのスピンドルは、時間の60%をかき回すのではなく、他のワークロードに寄与することができます。 PS、私の特定のケースでは、RAID 10のコストオーバーヘッドは要因ではありません。これは、複数のRAID 1アレイと1つの小さめのRAID 5を作成することを考えているためです。
10 performance  raid 

1
HP SmartアレイP410:RAID10をRAID1に変換するか、RAID10からディスクを取り外します
146GBディスクの2つのRAID10アレイを持つサーバーがあります。146GBディスクの1つのRAID10アレイを2つの2TBディスクのRAID1で置き換えようとしています。空きポートがないため、交換するアレイから2つのディスクを取り出しました。これで私のレイドのステータスは次のようになります。 # /opt/hp/hpssacli/bin/hpssacli ctrl all show config Smart Array P400 in Slot 1 array A (SAS, Unused Space: 0 MB) logicaldrive 1 (273.4 GB, RAID 1+0, Interim Recovery Mode) physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 146 GB, Failed) physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 146 GB, Failed) physicaldrive …

2
HP Proliant DL380 Gen9はハリケーンIrmaの間に濡れましたが、ハードドライブはまだ良好です。新しい同一のサーバーに接続するだけでよいですか
HP Proliant DL380 Gen9はハリケーンIrmaの間に濡れましたが、RAID 1(ミラーリング)として構成された2台のハードドライブはまだ良好です。交換品を注文済みで、古いものと同じ仕様です。2台のハードドライブを同じサーバーに接続するだけで、新しいサーバーは古いハードドライブで起動しますか?

3
24ディスクアレイのベストプラクティス
古いファイバーSANストレージ用に24 SAS 600GBディスクを備えたIBM v3700 storwizeに移行しました。 このストレージは、それぞれが2つの6GbpsマルチパスSASコントローラーを備えた2つのIBM ESXi 5.5サーバーに直接接続されています。 これまで、使用したスト​​レージを複数のRAID5グループに構成しました。各グループは、異なるサーバー/目的用です。主にRAIDグループは、OracleDB、Oracleアーカイブ、SQL Server、その他(ファイルサーバー、メールなど)です。最も重要なアプリケーションはOracleとSQL Serverです。 私の最初の関心事は、アプリケーションの安全性とパフォーマンスです。したがって、私はRAID6 +スペアを使用することにしました。 私の主な懸念は、ESXiを使用しているため、ストレージ全体を1つのRAIDに構成し、スペースを節約して、ESXiからサーバーごとにデータストアボリュームを作成する必要があるか、またはこれは良い方法ではなく、個別に作成することをお勧めしますハードウェアRAIDグループ?

7
ハードディスクが1つだけ故障した場合、RAID 4ディスクのセットアップはクラッシュしますか?[閉まっている]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 7年前休業。 私はウェブ開発者です。ハードウェアの経験はあまりありません。このため、管理対象サーバーを使用しています。 今朝、セットアップのドライブの1つが故障しました。ただし、サイト全体がダウンしました。Webホストに何が起こったのか尋ねたところ、RAIDコントローラーが正しく機能しないようなハードディスクの障害が発生したと彼は答えました。アレイはRAID 4としてセットアップされました。 これまでに見たことがありますか?出来ますか? この人たちの助けをありがとう。私のWebホストが私に正直であるかどうかを知る必要があります。
9 raid 

1
Ubuntuサーバー、gptパーティションテーブル、mdadm、grubブートが失敗する
基本的な作業システムの詳細: Ubuntu 12.04サーバーCDを使用してサーバーをインストールしました。 4つのディスクがあります。すべてのディスクで、このhowtoと同様に、次のことを行いました。 2GBのスワップパーティションを作成しました 256 GBの/ bootパーティションを作成 64 GB RAID10パーティションを作成(ルート用) 残りのスペースを占める大きなRAID10パーティションを作成 ブートをext3としてフォーマットしました。ルートと大きなパーティションにRAID10をセットアップしました。ルートをext4でフォーマットしました。大きなボリューム上に論理ボリュームを作成し、ext4でフォーマットしました。 結果のシステムは正常に動作し、正常に起動します。 問題の詳細: 次に、失敗の手順を文書化することにしました。最初のステップとして、grubを再インストールすることにしました。 # grub-install /dev/sda warn: This GPT partition label has no BIOS Boot Partition; embedding won't be possible!. error: Embedding is not possible. GRUB can only be installed in this setup by using blocklists. However, …
9 ubuntu  raid  mdadm  grub2  gpt 

2
電源障害後のCentOS 6サーバーVMホストの確認方法
今日の午後、私たちのオフィスの誰かが、サーバーが外に押し寄せていたので、サーバーからプラグを抜くことを決めました。彼らはそれをシャットダウンしませんでした、彼らはそれが走っている間にプラグを抜いただけです。 サーバーには、ソフトウェアRAID 10構成の4つのSATAドライブがあり、LVMはRAIDの上で実行されます。サーバーはCentOS 6.2 Minimalを実行しており、KVMを使用する仮想マシンホストです。プラグが抜かれたとき、コンピュータ上で実行されている多くのゲストマシンがありました。各ゲストには、ハードドライブとして直接使用する1つ以上のLVMパーティションがあります。ゲストパーティションは、EXT3、EXT4、およびNTFSです。ホストOSはEXT4パーティションにあります。 その後、電源が回復すると、その人が電源に接続して起動しました。彼らは最初にモニターを接続せずにそれを接続したので、画面に何が出てきたかを確認する方法はありません。ここでモニターを接続してみましたが、起動時にモニターが接続されていないと機能しません。(さらに)何も台無しにしたくないので、アドバイスが得られるまで、そのままにしておきます。 SSH経由でホストにアクセスできます。ログのどこかに役立つと思われる場合に備えて、まだ再起動していません。 可能であれば、すべてのディスクとパーティションのデータの整合性をチェックする必要があります。RAID 10はある種のメモリベースのキャッシュを使用していると思いますが、ドライブに一貫性がないか、またはまだ書き込まれていないドライブに書き込むための手がかりがあった場合にファイルが破損するのではないかと心配しています。 [root@othello ~]# cat /proc/mdstat Personalities : [raid10] [raid1] md2 : active raid1 sdc1[2] sda1[0] sdd1[3] sdb1[1] 102388 blocks super 1.0 [4/4] [UUUU] md0 : active raid10 sda3[0] sdc3[2] sdd3[3] sdb3[1] 1952289792 blocks super 1.1 512K chunks 2 near-copies [4/4] [UUUU] bitmap: …

1
dfがRAID10アレイの半分のサイズしか表示しないのはなぜですか?
150Gのストレージを作成するために、4つの75Gドライブを使用してRAID10アレイを作成しました。 すべて(最初の同期を含む)が終了した後df -h、指定されたマウントポイントに73Gストレージのみが表示される出力を除いて、すべて正常に見えました。 詳細: マシンは、Amazon EC2上のm1.large Ubuntu 11.10インスタンスです。 4つのドライブはEBSドライブであり、それぞれのサイズは75Gです。 RAID10アレイは、次のスクリプトを使用して作成されました。 - #!/bin/sh disk1="/dev/sdh1" disk2="/dev/sdh2" disk3="/dev/sdh3" disk4="/dev/sdh4" echo "*** Verifying existence of 4 volumes $disk1, $disk2, $disk3 and $disk4" if [ -b "$disk1" -a -b "$disk2" -a -b "$disk3" -a -b "$disk4" ]; then echo "# Found expected block devices." else …
9 raid  raid10  df 

9
Adaptec / Intel ICH10R RAIDコントローラを監視する方法(SNMP通知オプションはありますか?)
SuperMicroのSuper Doctor IIIは私が探していたソフトウェアです。これは、IBMのServerGuideまたはDellのOpenManageに相当するSuperMicroです。残念ながら、ハードウェアモニタリングとSNMPまたは電子メールアラートをサポートしていますが、Server Coreでの実行はサポートしていません。 私は、素敵なIntel ICH10RベースのフェイクRAIDコントローラーの1つが装備されたMBD-X8-DTL-IOメインボードを使用しているSuperMircoサーバーを持っています(混乱を招くほど十分にAdaptecデバイスとして報告されています-それはコントローラとAdaptecファームウェア用のICH10Rチップセットの不幸な結婚)。何度かぶつかった後、正しいACHIドライバーを見つけて、Windows Server 2008 R2をRAID-1セットアップにインストールすることができました。 Windowsがコントローラーを "Adaptec Serial ATA HostRAID"として報告し、ハードドライブを "ADAPTEC RAID 1 SCSI Disk Device"として報告するのに対し、起動プロセス中にコントローラーハードウェアが実際に使用していることを明確に報告するので、私の混乱の一部です。 Intel ICH10R(「コントローラ#00:PCIバス:HostRAID-ICH10r at PCI Bus:00 ...)。 このコントローラーには管理上の期待はあまりありませんが、RAIDアレイの状態を監視して(できればSNMP経由でOpenNMSサーバーに)通知することができるソフトウェア(サードパーティなど)はありますか?このサーバーはオフサイトになり、点滅ライトを物理的に見なくてもドライブが停止したことを知っておくと便利です。私が見つけることができるのは、リモート監視および通知機能を備えていないと思う安っぽいIntel RSTソフトウェアです(「非互換性エラー」が原因でインストールできなかったという不満があり、コントローラーチップセットがICH10R-しかし、それは別の質問です)。 Windowsベースのプラットフォームでこれらの偽装カードを使用している場合、RAIDアレイをどのように監視しますか? (これがWindowsで処理されるだけの場合は、KBまたはTechNetの記事を参照してください。私は主にUnixの管理者です。したがって、Windowsでmdadmまたはraidtoolsに相当するものがある場合、私はそれを知らないことに注意してください)。 編集: うまくいかない: MMCを介した仮想ディスクサービスの使用は、私にとって完全なソリューションとしては機能しません。RAID-1ボリュームはオペレーティングシステムに単一のディスクとして提供されるため、RAID-1ボリュームのみが認識されます。基盤となるRAIDについては認識されません。必要なのは、RAID自体が示すボリュームではなく、RAID自体の状態(たとえば、アレイが劣化しているかどうか)に関する実際の情報です。 SNMPサービスとSNMPInformantをインストールしましたが、MIBでICH10Rコントローラを監視するための参照が見つかりません。これはすばらしい提案ですが、続行するにはもう少し詳細が必要です。また、オペレーティングシステムはどのようにしてRAIDについて何か知っているはずですか?抽象化されたRAIDボリュームをディスクドライブおよびコントローラーとして認識します。 RDPを使用してローカルにログインし、Adapter Storage Managerを実行するのが最善の方法だと思いますが、それはまさに避けたいことです。これらの偽装カードの使用に困っているのは私だけではありません。監視のためのより良いソリューションがあることを願っています。 Intel Storage Matrix Managerのインストーラーは、「このコンピューターは、ソフトウェアを使用するための最小セットアップ要件を満たしていません」というエラーで終了します。これは、このコントローラで動作するように設計されていないことを意味すると思います(ただし、readme.txtの SATA ACHIセクションでサポートされているデバイスとしてリストされています)。 Adaptec Storage Manager sortaは機能しますが、本当に私が欲しい場所に行きません。アレイを構成する個々のドライブは「認識」されません。ただし、1)リモートで監視、2)電子メール通知を送信、3)SNMPトラップを送信できます。これはすべて素晴らしくて面倒ですが、コントローラーとインターフェースする機能がない場合、Windowsの仮想ディスクサービス管理(スクリーンショットを参照)よりも監視が洗練されていません。

4
フォールトトレランスのために2つ目のRAIDコントローラーが必要ですか?
サーバーに3台のハードドライブが取り付けられており、合計容量は6台です。最大になる予定ですが、コンサルタントは、新しいドライブをサポートするために「冗長性のために」2番目のRAIDコントローラーを入手することを提案しました。私には、これはあまり意味がありません。2番目のRAIDコントローラーがディスクの半分を実行している場合でも、コントローラーの1つが停止した場合、ディスク/プログラム/データの半分だけでスタックします(何もない状態で実行するよりもはるかに優れています)。サーバーにvmwareを配置し、高度なフォールトトレランス/フェールオーバー機能について漠然と言及しましたが、コントローラーの障害が原因でディスクにアクセスできない場合、どのように機能するのでしょうか。 パフォーマンスではなく、冗長性の理由のみを数えますが、サーバーに2つ目のRAIDコントローラーが必要なのはなぜですか?

3
再構築中にRAID 6にデータを書き込んでも安全ですか?
非常に大きなRAID 6(11ドライブ、それぞれ3TB)をホストするテストRAIDコントローラーをネットワーク上に持っています。ドライブの1つに障害が発生し、アレイは現在再構築中です。このレートでは、完了するまでに約3日かかると思います。新しいデータをアレイに書き込んだ場合、再構築が成功する可能性が低くなりますか? たくさんの小さなファイルの形で約1 GBの新しいデータを書き込むかもしれません。これにより、再構築の進行が大幅に遅れますか?
9 raid  raid6 

4
HP Smartアレイ; SMART予測障害のある物理ドライブをアレイから安全に取り外して交換できるようにする方法は?
hpacucliコントローラースロット= 1 ld 1詳細を表示 Smart Array P400 in Slot 1 array A Logical Drive: 1 Size: 273.3 GB Fault Tolerance: RAID 1+0 Heads: 255 Sectors Per Track: 32 Cylinders: 65535 Stripe Size: 128 KB Status: OK Array Accelerator: Enabled Unique Identifier: xxxx Disk Name: /dev/cciss/c0d0 Mount Points: /boot 196 MB, …

1
mdadmで構築されたRAID5アレイの再構築/回復/拡張中にマシンをシャットダウンしても安全ですか?
私は最近、ファイルサーバーで5ドライブRAIDの回復を開始しました。完了までに691分以上かかると表示されています。マシンが停電した場合、プロセスはどうなるのだろうと思っていました。回復プロセスをもう一度再開する必要がありますか?データのRAID全体が失われますか? また、RAIDを拡張している最中に電源が切れた場合はどうなりますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.