タグ付けされた質問 「storage」

主にディスクストレージに関する質問です。アプリケーションストレージまたはクラウドストレージに関する質問もあります。データの保存について常に質問します。

5
数百のVM Webサーバー用のSANテクノロジーの選択
問題 既存のプラットフォームでのパフォーマンスに問題があるため、これに関するセカンドオピニオンを求めています。これまでのパフォーマンスの問題は、スループットではなくIOPSに関連しています。 シナリオ 各ホストに64 GBのRAMを備えた16個のホストのブレードセンター。(M610を搭載したDell M1000eですが、おそらく関係ありません)500 VM、すべてのWebサーバー(または関連するWebテクノロジー(MySQL、ロードバランサーなど)、約90%はLinux、残りはWindowsです。ハイパーバイザーはVMWare vSphereです。ホストHAを提供する必要があるため、ローカルストレージは使用できません。そのため、ホストには起動するSDカードがあります。 ちょっとした背景思考 現在、最大6台のホストであり(ブレードセンターは、現在の成長で1年後にフルキャパシティになります)、拡張のためにMD1220を備えたDell MD3220iに対してiSCSIを実行しています。 私たちが検討した可能性のあるオプション、およびそれらに伴う即時の考え: VMをNFSデータストアに分散し、最大数のVMのパフォーマンス要件を満たすNFSストレージを実行します。NFSは拡張が安価で、ブロックレベルのストレージよりも少し抽象化されているため、必要に応じて移動できます。 さらにMD3220iコントローラー/ターゲットを追加します。ただし、これを行うと、VMWareが多数のターゲットを処理する方法に何らかの形で悪影響を与える可能性があることを懸念しています。 Nearline SASからSSDにすべてのディスクを交換します。これはIOPSの問題を完全に解決するはずですが、ストレージ容量を大幅に削減するという明らかな副作用があります。また、それはまだ非常に高価です。 vSphere 5にはストレージアプライアンスがあります。あまり調査していませんが、うまく機能する必要がありますか? 質問 そのすべての下でどのようなストレージを実行しますか?別のブレードセンターに拡張する必要はなく、それらすべてのVMに比較的良好なパフォーマンスを提供する必要があります。 「最善だからSAN xを購入する」という答えは探していません。さまざまなSANテクノロジー(iSCSI、FC、FCoE、InfiniBand、NFSなど)、さまざまなタイプのストレージ(SATA、SAS、SSD)、および数百台のVMのストレージを処理する方法(統合、分離)についての考えを探しています、シャーディングなど)。 絶対に、これについての考え、リンク、ガイド、ポインタなどは大歓迎です。また、私たちがすでに検討した上記のオプションについての考えを聞きたいです。 どんな入力でも事前に感謝します! 12年3月5日更新 これまでに素晴らしい回答がありました。皆さん、本当にありがとうございました! これまでのところ、この質問に対する回答を見てみると、次のルートが道であると考え始めています。 使用可能なストレージをVMWareクラスターに階層化し、ワークロードに適したストレージにVMディスクを配置します。 適切なストレージへのデータの配置を自動的に管理できるSANを使用する可能性があります。 Infinibandは、フルキャパシティのホストで必要な帯域幅を取得するために最も費用対効果が高いと思われます。 間違いなく、主要なSANベンダーのプリセールスサービスを利用して、シナリオを理解する価値があると思われます。 私はしばらくこの問題を検討し続けます。それまでの間、これ以上のアドバイスはありがたいことに受け取った!


12
価格以外にNetApp SANソリューションのマイナス面はありませんか?[閉まっている]
この質問が将来の訪問者に役立つことはまずありません。それは、小さな地理的領域、特定の瞬間、またはインターネットの世界的な視聴者には一般に適用できない非常に狭い状況にのみ関連します。この質問の適用範囲を広げるには、ヘルプセンターをご覧ください。 7年前に閉鎖されました。 私たちは、最初のSAN向けのNetAppソリューションをほぼ決定しました。それを考えると、NetAppを使用しない理由をできる限り見つける必要がありました。私たちはこれを行うのが好きですA)私たちは何をやっているのかを知っています。そしてB)避けられないポストベンダーのデモの幸福感によって曇っていません。私は短所のためにインターネットを精査し、1つだけ見つけることができます:価格。 NetAppで悪夢のような体験をしたことがありますか?ネットアップの経験がある人のみにしてください。 ありがとうございました!

7
HP SmartアレイP400でのRAID機能の無効化
システム(HP ML370 G5、Smart Array P400、8 SASディスク)でZFSを使用する予定です。ZFSですべてのディスクを個別に管理して、より良いスケジューリングを利用できるようにしたい(つまり、ZFSでソフトウェアRAID機能を使用したい)。 問題は、RAIDコントローラーでRAID機能を無効にする方法が見つからないことです。現在、コントローラーはすべてのディスクを1つの大きなRAID-5ボリュームに集約しています。そのため、ZFSは個々のディスクを認識できません。 このセットアップを達成する方法はありますか?

3
ラージフォームファクター(LFF)ディスクがまだかなり普及しているのはなぜですか?
Small Form Factor(SFF)/ 2.5 "ディスクは、多くのシナリオ(低消費電力、高密度など)でLFFディスクよりも望ましいため、LFFディスクよりも普及しているようです。ただし、LFFディスクはまだ機能しているようです主要ベンダーの提供品(最近リリースされたHPサーバーのGen9シリーズを例として取り上げます)。 ディスクの価格を見ると、ほとんどの低容量(500 GB未満)容量で、最近は価格差がほとんどないようです。それは疑問を招きます、なぜ彼らは最新の製品で彼らをサポートすることに投資する価値があるとベンダーが感じるほど十分に人気があるのですか?それは、LFFフォームファクターディスクがSFFディスクよりも高い容量で利用できるからですか、それともまだ普及している他の理由がありますか? これの根底にあるのは、SSF上のLFFケージ/ディスクを備えた最新のサーバーを仕様化するための客観的な正当性を理解しようとしているという事実です。LFFが推奨されるシナリオ/要件は何ですか?かなりのコストで大きなマルチテラバイトのディスクが必要な場合にのみ本当にこれを行うでしょうか、または他の理由がありますか?

10
S3互換オブジェクトストレージシステム[終了]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 5年前に閉鎖されました。 ほぼ100%Amazon S3 RESTful API互換のオブジェクトストレージシステムに出会った人はいますか? 私が望んでいるのは、適切な認証で、Amazon S3スタイルのRESTful APIを格納(PUT)、取得(GET)、統計(HEAD)および削除(DELETE)する任意の(好ましくはPOSIX)ファイルシステムの上にあるレイヤーです。 商用プロジェクト/アイデアも歓迎します。 注意: 私はこれまでユーカリと積雲を試しました。ユーカリは盲目的に自身をS3互換と呼んでいるようです。応答XMLドキュメントはまったく互換性がなく、XMLドキュメントがまったくない特定の場所ではパッチが適用されます。Cumulusは、応答ドキュメントをまったく同じように保つことができましたが、データの整合性を忘れていたようです。 後者について説明します。EucalyptusとCumulusは、Amazon S3が提供する整合性検証をサポートしていません。S3でできることは、PUT要求とともにBase64(MD5(FILE))を提供できることです。PUT要求は、S3が成功して応答する前に検証されます。EucalyptusとCumulusはこれをサポートしていません。Eucalyptusを使用すると、少なくともS3互換の動作ではなく、応答ドキュメントで指定されたMD5をチェックすることでこれを回避できます。Cumulusでは、何も応答しないため(S3など)、これは不可能です。HEADリクエストでETagを提供しないことにより、Cumulusによってさらに悪化します。


7
ストレージサーバーをどのようにバックアップしますか?
私は、いくつかの他のサーバー(すべてLinuxベース)のライブNASとして使用される非常に大きなストレージサーバーの実装を検討しています。 非常に大きいということは、4TBから20TBの使用可能スペースを意味します(実際に20TBにすることはまずありませんが)。 ストレージサーバーは、データのセキュリティとパフォーマンスのためにRAID 10になりますが、オフサイトバックアップを含むバックアップソリューションが必要です。 私の質問は次のとおりです。どのくらいの量のデータをバックアップしますか? ポータブルハードドライブを接続してファイルを転送するだけではいけません。現在、これほどのストレージ容量を持つ他のデバイスはありません。 2番目のオフサイトストレージサーバーに予算を入れる必要がありますか、それともより良いソリューションがありますか?

3
HPストレージアレイ-複数のチャネル?
SQLサーバーの負荷が非常に高くなり、すべての兆候がディスクチャネルがボトルネックであることを示しています。現在のHPサーバーにはかなりローエンドのアレイカードがあり、このサーバーにSmartアレイカードとSSDドライブを備えた外部ストレージアレイを追加する予定です。 現在の構成は次のとおりです。 DL360 G7 SmartアレイP410i Windows Server 2008R2 32Gb RAM 現在のアレイは、ブート/ OS用の2 x 300Gb SAS RAID1論理ドライブとデータ用の1 x 120Gb SATA SSDドライブです。 データベースサーバーは、ライブデータと履歴データの両方を含む1つのかなり大きなデータベース(〜100Gb)をホストします。多くの理由で、データベースの分割はオプションではないため、現在の考え方は、新しいアレイに複数の論理ドライブをそれぞれ独自のチャネルに配置し、データベースを論理SQLパーティションに分割することです。 たとえば、配列には次のものがあります。 2 x SSD(RAID1) 2 x SSD(RAID1) 4 x SSD(RAID1 + 0) 現在、ハイエンドのSmartアレイカードを搭載したD2600のようなものを検討しています。 最大のパフォーマンスを得るには、各論理ドライブを可能な限り高速で実行する必要があります。HPの仕様によると、トップエンドSSDは、Smartアレイカードがサポートする6Gb接続を最大限に活用できる可能性があります。 ただし、いくつかのより大きなSAカードは、「複数のチャネル」をサポートすることを示唆しています。私にははっきりしないのは、この仕組みです。これは、SAからD2600への1本のケーブルで、各RAIDセットが独自の6Gbチャネルを取得するように構成できるということですか?または、6Gbは相互接続の制限であり、もしそうであれば、この制限を克服する設定オプション(または異なるHP製品-「主観的な質問なし」ルールを回避しようとしない:)がありますか? 編集:それを行うHPサーバーは表示されませんが、内部ドライブケージを2つ(またはそれ以上)のチャネルに分割できる適切なProliantボックスがある場合、それは「プランB」である可能性があります-誰もがそのようなサーバーを知っていますか?

1
RAIDはどれくらいの頻度でスクラブする必要がありますか?
一般的に、RAIDアレイをスクラブする必要がある頻度を知りたいと思います。より頻繁にスクラブする必要があるのは何ですか(データの読み取り、データの書き込み、予期しないシャットダウン?、ドライブ年齢?、ドライブサイズ?、ユーザー数など)? 私はここでArch wikiを読んでいますが、本当に言っているのは、定期的にスクラブを行うべきだということです。どれだけ定期的に十分かと思っていました。明らかにそれは依存しますが、合理的な範囲は何ですか?毎年?毎月?毎週?毎日?情報をありがとうございました。

1
ZFS RAIDZのIOPSの計算とRAID5およびRAID6のIOPSの計算は異なりますか?
従来のRAIDアレイのIOPSを計算する場合、次の式を使用できます(Symantec ConnectでIOPS v1.3のハングを取得するから借用)。 Ieffective = (n * Isingle) / (READ% + (F * WRITE%)) どこ: Ieffectiveは有効なIOPSの数です Isingleは、単一ドライブの平均IOPSです。 nはアレイ内のディスクの数です READ%は、ディスクプロファイリングから取得した読み取りの割合です。 WRITE%は、ディスクプロファイリングから取得した書き込みの割合です FはRAID書き込みペナルティです: RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 RAID-6 6 RAID-10 2 RAID-DP 2 数式は基本的に次の関数です。 アレイ内の個々のドライブのIOPS ディスクの数。ディスクが多いほどIOPSが大きくなる 各書き込み操作のRAIDペナルティ。 RAID5およびRAID6では、書き込みごとに4回以上のディスク操作が必要です。コントローラーは、ブロックを読み取ってからパリティデータを読み取り(2回の操作)、新しいパリティデータを計算してから、パリティブロックを更新してデータブロックを更新する必要があります(2回の操作)。RAID6には2つのパリティブロックがあるため、3つの読み取りと3つの書き込みが必要です。したがって、RAID5およびRAID6アレイは、RAID1よりも少ないIOPSを実現できます。 RAID1およびRAID10は、ミラー内の各ディスクに1つずつ、2回の書き込みのみを必要とします。 明確にするために、これはすべて推定値を提供します理論上の性能のを。さまざまなコントローラーとRAID方式には、この一部を高速化するためのトリックがあります。 ZFSのRAID5およびRAID6に相当するものは、RAIDZおよびRAIDZ2です。RAIDZアレイのIOPSを計算するとき、RAID5およびRAID6に使用するのと同じ式を使用できますか、またはZFSには書き込み操作に必要な操作の数を減らすための特別なトリックがあります。 RAIDZアレイのIOPSを計算するときに使用する別の式はありますか?

2
バリアを備えたSATAドライブの書き込みキャッシュの安全性
私は最近、SATAドライブに関する書き込みキャッシュ、NCQ、ファームウェアバグ、バリアなどについて読んでいますが、停電の場合にデータを安全に保つための最適な設定は何かわかりません。 私が理解したことから、NCQを使用すると、ドライブは書き込みを並べ替えてパフォーマンスを最適化し、どのリクエストが物理的に書き込まれたかをカーネルに通知できます。 書き込みキャッシュは、データが物理ディスクに書き込まれるのを待たないため、ドライブがリクエストをはるかに高速に処理できるようにします。 ここでNCQと書き込みキャッシュがどのように混在するかわかりません... ファイルシステム、特にジャーナリングされたものは、特定のリクエストがいつ書き留められたかを確認する必要があります。また、ユーザー空間プロセスはfsync()を使用して特定のファイルを強制的にフラッシュします。fsync()の呼び出しは、ファイルシステムがデータがディスクに書き込まれたことを確認するまで戻りません。 SASドライブでのみ見た機能(FUA、Force Unit Access)があります。これは、ドライブを強制的にキャッシュをバイパスし、ディスクに直接書き込みます。他のすべてについては、書き込みバリアがあります。これは、ドライブでキャッシュフラッシュをトリガーできるカーネルによって提供されるメカニズムです。これにより、重要なデータだけでなく、すべてのキャッシュが強制的に書き込まれるため、たとえばfsync()を使用すると、システム全体が悪用されます。 ファームウェアのバグがあるドライブ、またはデータが物理的に書き込まれた時期について意図的に存在するドライブがあります。 これを言って..ドライブ/ファイルシステムを設定する方法はいくつかあります:A)NCQおよび書き込みキャッシュを無効にするB)NCQのみを有効にするC)書き込みキャッシュのみを有効にするD)NCQと書き込みキャッシュの両方を有効にする バリアが有効になっていると思います。ところで、実際に有効になっているかどうかを確認する方法は? 電力損失の場合、ディスクへのアクティブな書き込み中に、ファイルシステムジャーナルとデータの両方でオプションB(NCQ、キャッシュなし)が安全であると推測します。パフォーマンスが低下する場合があります。 バリアまたはFUAを使用する場合、オプションD(NCQ + cache)は、fsync()を使用するファイルシステムジャーナルおよびアプリケーションにとって安全です。キャッシュで待機していたデータにとっては悪いことであり、それを検出(チェックサム)するのはファイルシステム次第であり、少なくともファイルシステムが(願わくば)不安定な状態になることはありません。パフォーマンスに関しては、より良いはずです。 しかし、私の質問は立っています...私は何かが欠けていますか?考慮すべき他の変数はありますか?これを確認できるツールがあり、ドライブが正常に動作することはありますか?

2
ext4でチェックサムデータの整合性を取得する方法
btrfsのようなファイルシステムでは、すべてのデータを調べてデータがファイルシステムのチェックサムと一致するかどうかを確認するスクラブを実行できます。 バックアップの前にext4のデータが正しいかどうかを確認したいと思います。 質問 ext4にはファイルシステムチェックサムがありませんが、同様のことができますか?

1
KVMゲストioはホストioよりもはるかに遅い:それは正常ですか?
CentOS 6.3でQemu-KVMホストシステムをセットアップしています。ソフトウェアRAID10で動作する4つの1TB SATA HDD。ゲストCentOS 6.3は別のLVMにインストールされます。ゲストのパフォーマンスはホストのパフォーマンスとほぼ等しいと人々は言いますが、私はそうは思いません。私のI / Oテストでは、ホストシステムよりもゲストでのパフォーマンスが30〜70%遅くなっています。スケジューラ(elevator=deadlineホストとelevator=noopゲストに設定)をblkio.weight変更し、cgroupで1000に設定し、ioをvirtio に変更しようとしました...しかし、これらの変更はどれも重要な結果をもたらしませんでした。これはゲストの.xml構成部分です。 <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </disk> 私のテストがあります: ホストシステム: オゾン試験 # iozone -a -i0 -i1 -i2 -s8G -r64k random random KB reclen write rewrite read reread read write 8388608 64 189930 …

3
SSDドライブの正常性を判断する簡単な方法は?
ここに記載されているように、ZFSストレージアレイで2回「失敗」とマークされたIntel X-25Mドライブがあります。ただし、ドライブを取り外した後、他のコンピューター(Mac、PC、USBエンクロージャーなど)でマウント、読み取り、書き込みを行っているようです ドライブの現在の状態を判断する良い方法はありますか?ZFSソリューションの以前の失敗は、バグ、悪いエラー報告、ハードウェアの収束であったと感じています。ただし、このドライブには寿命があるようです。
13 hardware  storage  ssd  smart 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.