タグ付けされた質問 「storage」

主にディスクストレージに関する質問です。アプリケーションストレージまたはクラウドストレージに関する質問もあります。データの保存について常に質問します。

11
データのアーカイブに使用されている未接続のハードドライブは劣化しますか?
データをハードドライブにアーカイブし、プラグを抜いて、どこか(ほこりのない、温度制御されていない)シェルフにセットすると、そのドライブは大きく劣化しますか? 取り外したハードドライブのデータ保持は、テープと比較してどうですか?


8
ストレージの問題を開発者や他のユーザーに説明する最良の方法は何ですか
サーバーストレージの容量が少なくなると、開発者全員が「100ドルでウォルマートに1 TBのドライブを手に入れることができますが、問題は何ですか」とうめき始めます。 ウォルマートの1 TBドライブが機能しない理由を理解するために、ストレージの複雑さを開発者にどのように説明できますか。 ps私は開発者であり、また知りたいです:)
40 storage 

3
マザーボード上のSDスロットの使用例は何ですか?
HP Proliant ML110 G7には、マザーボードにフルサイズのSDスロットがあります。そのユースケースは何ですか? PDFマニュアルはそれを言及page 10: item 17ちょうどその配置を表示しますが、何よりも。後のリビジョン(Gen 9)では、スロットはホットプラグ対応ではないと言われています。 マザーボードにはUSBスロットもあります(アイテム11)。

2
ストレージエリアネットワークとは何ですか?また、さまざまなストレージソリューションに対してどのような利点がありますか?
これは、エンタープライズレベルのストレージエリアネットワークに関する標準的な質問であることを提案しています。 ストレージエリアネットワーク(SAN)とは何ですか? Network Attached Storage(NAS)とはどう違うのですか? 直接接続ストレージ(DAS)と比較したユースケースは何ですか? どっちが良いのか悪いのか? なぜそんなに高価なのですか? 私(または私の会社)はそれを使用すべきですか?

8
IOPSが重要な理由
IOPSとスループットについて理解しています。スループットは、MB / sおよびIOPSが1秒あたりに発生するI / O操作の数としてデータフローを測定します。 私が理解していないのは、多くのストレージサービスが提供するIOPSを表示する理由です。スループットの代わりにIOPSを知りたいシナリオは実際にはありません。 IOPSが重要な理由 AWSが主にストレージプロビジョニングをIOPSで表示するのはなぜですか?IOPSはスループット(MB / s)よりも関連性がありますか? 編集: ランダムアクセスとは何か、それがパフォーマンスにどのように影響するか、HDDとSSDがどのように機能するかを尋ねたかのように、この質問を検討している人がいます...これに対して、それは質問の目標ではありません。質問は、「IOPS数値を見ると、どのような新しい情報が得られるのか、スループット(MB / s)数値が得られないのか」に関するものです。

7
安価なストレージサーバーの新しいHDDをテストする最良の方法
ストレージサーバーを構築して買いたいです10 x 2TB WD RED's。HDD'sちょうど到着。 実際のデータをディスクにコピーする前に、不良ドライブをチェックしたり、幼児死亡率を最大限に防御するために使用するツールはありますか? 各シングルをチェックするHDDか、アレイにZFS raid-z2大量のデータをコピーして()をテストする方が良いでしょうか?
31 storage 

11
分散ストレージファイルシステム-すぐに使用できる製品はどれですか?
HadoopとCouchDBのすべての上のブログで、実際に動作することを分散フォールトトレラントストレージ(エンジン)何の関連ニュース。 CouchDBには実際には配信機能が組み込まれていません。私の知る限り、エントリやデータベース全体を自動的に配信するための接着剤はありません。 Hadoopは非常に広く使用されているようです-少なくともそれは良い評価を得ていますが、それでも単一障害点:NameNodeです。さらに、FUSEを介してのみマウント可能です。HDFSは実際にはHadoopの主な目標ではないことを理解しています GlusterFSには何も共有されていないという概念がありますが、最近、私はそれがそれほど安定していないという意見に導くいくつかの投稿を読みました また、Lustreは専用のメタデータサーバーを使用するため、単一障害点もあります。 Cephは選択したプレーヤーのようですが、ホームページではまだアルファ段階にあると述べています。 質問は、どの分散ファイルシステムに次の機能セットがあるかです(特定の順序はありません)。 POSIX互換 ノードの簡単な追加/削除 シェアードナッシングのコンセプト 安価なハードウェア(AMD GeodeまたはVIA Edenクラスのプロセッサー)で実行 認証/認可ビルトイン ネットワークファイルシステム(異なるホストに同時にマウントできるようにしたい) 持ってうれしい: ローカルでアクセス可能なファイル:標準のローカルファイルシステム(ext3 / xfs / whatever ...)でパーティションをマウントしてノードをマウントしても、ファイルにアクセスできます。 私はしていない、ホストされたアプリケーションのために、私は私達のハードウェアボックスのそれぞれの10ギガバイトを言う取り、私たちのネットワークで利用可能なそのストレージを持って、簡単に多数のホストにマウントすることができますではなく、何かを探しています。

2
なぜエンタープライズSASディスクエンクロージャーがそれほど高価に見えるのですか?
まず、これがなぜエンタープライズストレージがそんなに高価なのかを複製しているとは思わないと述べます。。 私の質問は、具体的にはSASドライブエンクロージャについてであり、その費用を正当化することです。 私が言及しているエンクロージャーのタイプの例は次のとおりです。 1 HP D2700 2 Dell MD1220 IBM EXP3524 上記のそれぞれは、約24 X 2.5インチドライブ用のスペースを備えた2U直接接続の外部SASドライブエンクロージャです。 私はドライブではなく、むき出しのエンクロージャーについて話しています。エンタープライズクラスのハードドライブとコンシューマクラスの違いを認識しています。 「ボールパーク」価格の例として、HP D2700(25 X 2.5 "ドライブ)は現在ドライブなしで約1750ドルです(Amazon USで2012年12月に確認)。ローエンドHP DL360サーバーは約2000ドルで、 CPU、RAM、マザーボード、SAS RAIDコントローラ、ネットワーク、および 8 X 2.5インチドライブ用のスロット。 ストレージを備えた提案されたサーバーのコストの内訳をクライアントまたは管理者に提示するとき、エンクロージャーが本質的に受動的であることを考えると、エンクロージャーが重要なアイテムであることは奇妙に思えます(間違えない限り)。 私の質問は: SASドライブエンクロージャのコンポーネントを誤解していませんか?電源、SASケーブル、および多数のドライブ用のスペースを備えた単なるパッシブエンクロージャではありませんか? 特にサーバーと比較した場合、コストが一見非常に高いように見えるのはなぜですか。エンクロージャがないことを、すべてのコンポーネントを考えるない(マザーボード、CPU、RAM、ネットワーキング、ビデオ)を持っている私は、エンクロージャが大幅に安価であることを期待します。 現在、クライアントにサーバーを推奨する際の戦略は、エンクロージャーの価格のために外部ドライブエンクロージャーの推奨を避けることです。ただし、ベースサーバーに十分なドライブを物理的に取り付けることができず、クライアントで利用可能なSANまたはNASがない場合、エンクロージャーは賢明なオプションです。エンクロージャの費用がかかるのと同じ理由で、クライアントに説明できると便利です。

8
書き込み速度の要件:1.1GB / sの可能性?
ピーク時のパフォーマンスでは、1時間あたり50(「書き込みヘッド」)x 75 GBのデータをプッシュできるマシンが稼働します。これは、書き込み速度が約1100MB / sのピークパフォーマンスです。マシンから取得するには、2つの10GBiラインが必要です。私の質問は、どのようなサーバー+テクノロジーがそのようなデータフローを処理/保存できるのですか? 現在、データストレージではZFSを使用していますが、書き込み速度は問題ではありませんでした。(私たちはこれらの速度にさえ近づいていません)ZFS(Linuxではzfs)はオプションでしょうか?また、大量のデータを保存する必要があります。「ITガイド」では、合計で50〜75 TBの範囲が推奨されています。したがって、最初に生まれた子供を提供したいのでなければ、すべてのSSDを使用することはできません。 優れた返信に基づいたいくつかの追加: ピーク時の最大値は50x75GB /時間で、24時間未満です(ほとんどの場合<6時間) これがすぐに起こるとは考えていません。おそらく5〜10x75GB /時間で実行します。 それはプレアルファ版のマシンですが、要件は満たされるべきです(たとえ多くの疑問符が使われていても) マシンからサーバーへの接続としてNFSを使用します レイアウト:マシンの生成->ストレージ(これ)->(セーフRAID 6)->計算クラスター そのため、読み取り速度は必須ではありませんが、計算クラスターから使用することをお勧めします(ただし、これは完全にオプションです) ほとんどの場合、大きなデータファイルになります(多くは小さくありません)

3
Linux-実世界のハードウェアRAIDコントローラーのチューニング(scsiおよびcciss)
私が管理するLinuxシステムのほとんどは、ハードウェアRAIDコントローラー(主にHP Smartアレイ)を備えています。それらはすべてRHELまたはCentOSを実行しています。 SASディスク(Smartアレイ、Perc、LSIなど)とバッテリーバックアップまたはフラッシュバックアップキャッシュを備えたハードウェアRAIDコントローラーを組み込んだセットアップのパフォーマンスを最適化するのに役立つ実世界の調整可能パラメータを探しています。RAID 1 + 0および複数のスピンドル(4+ディスク)を想定します。 低遅延および金融取引アプリケーション用のLinuxネットワーク設定の調整にはかなりの時間を費やしています。ただし、これらのオプションの多くは十分に文書化されています(送信/受信バッファーの変更、TCPウィンドウ設定の変更など)。エンジニアはストレージ側で何をしていますか? 歴史的に、私はI / Oスケジューリングエレベータに変更を加えてきました。最近、アプリケーション内のパフォーマンスを改善するためにdeadlineとnoopスケジューラを選択しました。RHELバージョンが進歩するにつれて、SCSIおよびCCISSブロックデバイスのコンパイル済みデフォルトも変更されていることにも気付きました。これは、時間の経過とともに推奨されるストレージサブシステム設定に影響を与えてきました。ただし、明確な推奨事項を確認してからしばらく経ちました。そして、OSのデフォルトが最適ではないことを知っています。たとえば、128kbのデフォルトの先読みバッファは、サーバークラスのハードウェアでの展開には非常に小さいようです。 次の記事では、ブロックキューの先読みキャッシュとnr_requestsの値を変更した場合のパフォーマンスへの影響について説明します。 http://zackreed.me/articles/54-hp-smart-array-p410-controller-tuning http://www.overclock.net/t/515068/tuning-a-hp-smart-array-p400-with -linux-why-tuning-really-matters http://yoshinorimatsunobu.blogspot.com/2009/04/linux-io-scheduler-queue-size-and.html たとえば、HP SmartアレイRAIDコントローラーの推奨される変更は次のとおりです。 echo "noop" > /sys/block/cciss\!c0d0/queue/scheduler blockdev --setra 65536 /dev/cciss/c0d0 echo 512 > /sys/block/cciss\!c0d0/queue/nr_requests echo 2048 > /sys/block/cciss\!c0d0/queue/read_ahead_kb ストレージパフォーマンスを改善するために、他に何を確実に調整できますか? 生産シナリオでsysctlおよびsysfsオプションを具体的に探しています。

3
iSCSIストレージの調整
これは、参考として使用できるiSCSI に関する標準的な質問です。 iSCSIは、SCSIコマンドをペイロードとしてTCPネットワークパケットに入れるプロトコルです。そのため、ファイバチャネルなどとは異なる一連の問題が発生します。たとえば、リンクが混雑し、スイッチのバッファがいっぱいになった場合、デフォルトでは、イーサネットはホストに減速を指示する代わりにフレームをドロップします。これにより、再送信が発生し、ストレージトラフィックのごく一部の待ち時間が長くなります。 クライアントのオペレーティングシステムに応じて、ネットワーク設定の変更など、この問題の解決策があります。次のOSのリストでは、最適なiSCSIクライアント構成はどのように見えますか?スイッチの設定を変更する必要がありますか?ストレージはどうですか? VMWare 4および5 Windows Hyper-V 2008および2008r2 ベアメタル上のWindows 2003および2008 ベアメタル上のLinux AIX VIO あなたが偶然関連すると思う他のOS

5
Fusion-ioカードをRAIDする必要がありますか?
1つのFusion-ioカードをサーバーにインストールして確実に実行できますか、またはソフトウェアRAIDセットアップで2つのカードを展開する必要がありますか? Fusion-ioは、マーケティング資料を確認する際のトピックについてはあまり明確ではありません(ほとんど誤解を招く)。 Linuxで実行されている独自のスタンドアロンデータベースソリューションにHPブランドの Fusion-io ioDrive2 1.2TBカードを使用する予定です。これは、実際の高可用性オプションのない単一サーバーのセットアップです。そこで 10分との非同期レプリケーションRPOミラートランザクションが第二の物理サーバにログオンすることは。 従来、このアプリケーションのトップCPUステッピングを備えたハイエンドHP ProLiantサーバーを指定していました。SSDにアクセスする必要があり、必要な容量のエンタープライズSAS SSDよりも低価格でFusion-ioを取得できます。 2つのioDrive2カードを実行し、それらをソフトウェアRAID(mdまたはZFS)で結合する必要がありますか、それとも不要ですか? Fusion-ioの障害は、RAIDコントローラーの障害やマザーボードの障害よりも心配する必要がありますか? RAIDが好きなシステム管理者。このフォームファクターで利用可能なインターフェースとカードのウェアレベリング/エラー修正が異なる場合、これには異なる考え方が必要ですか? これらのデバイスの故障率はどのくらいですか? 編集:デルのFusion-io信頼性ホワイトペーパーを読んだところ、「Fusion-ioカードには多くの内部冗長性があります... RAIDを心配しないでください!!」。


2
ZFSデータ損失シナリオ
大規模なZFSプール(150TB +)の構築を検討しています。ハードウェアの故障によるデータ損失シナリオについて、特に、一部のデータが失われたインスタンスとファイルシステム全体を区別する人々の体験を聞きたいです( ZFSにそのような違いがある場合でも)。 たとえば、外部ドライブエンクロージャの電源が切れたり、コントローラカードに障害が発生したりしたために、vdevが失われたとします。私が読んだものからプールはフォールトモードになりますが、vdevが返された場合、プールは回復するはずですか?か否か?または、vdevが部分的に破損している場合、プール全体や一部のファイルなどが失われますか? ZILデバイスに障害が発生するとどうなりますか?または、いくつかのZILの1つだけですか? 深い技術的知識に裏打ちされた、ありとあらゆる逸話や仮説シナリオを歓迎します! ありがとう! 更新: 私たちは中小企業(9人程度)なので安価でこれを行っていますが、かなりの量の画像データを生成します。 データは大部分が小さなファイルであり、TBあたり約50万ファイルとカウントしています。 データは重要ですが、非常に重要ではありません。ZFSプールを使用して48TBの「ライブ」データアレイをミラーリングし(3年程度使用中)、残りのストレージを「アーカイブされた」データに使用する予定です。 プールはNFSを使用して共有されます。 ラックはおそらく建物のバックアップ発電機ライン上にあり、5分間程度全負荷でラックに電力を供給できる2つのAPC UPSがあります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.