タグ付けされた質問 「storage」

主にディスクストレージに関する質問です。アプリケーションストレージまたはクラウドストレージに関する質問もあります。データの保存について常に質問します。

8
Linuxを使用した自作の自動階層型ストレージソリューション?(メモリ-> SSD-> HDD->リモートストレージ)
システムにSSDを使用し、データにHDDを使用することに関するこの質問に関連します。ただし、システムにこれを自動的に実行させたい場合を除きます... できれば無料のオープンソースソフトウェアを使用して、ストレージの複数のレイヤーを持ち、それらの間でアイテムを自動的にプッシュすることは可能ですか? EMC SAN-> EMC Centera自動アーカイブのような非常に高価なエンタープライズクラスのソリューションを知っていますが、この種の段階的なストレージが自動的に実行できるかどうか疑問に思いました。 これに複数のレイヤーを含めることができると便利です:メモリ-> SSD-> HDD->より遅いHDDまたはテープまたは他のアーカイブソリューション。 これを自動的に行うことができるファイルシステムはありますか?(ZFS、Btrfs、ハンマー?) 任意のUnixの私はどのようにこの作品に、それはLinuxや他のフレーバー(BSDなど)への移植である可能性が高いのかどうか興味があるよう-variantsは、罰金です。
13 linux  unix  ssd  archive  storage 

5
LVMと災害復旧
LVMとは何か、またLVMが何を成し遂げているのかは理解していますが、いくつか不足しているように感じます。 sdaとsdbの2つの物理ドライブがあるとします。どちらも100メガです。それらをVolumeGroup1に入れ、200メガバイトのLogicalVolume1を1つ作成します。 150 MBのファイルを作成するとどうなりますか?100メガバイトは物理的にsdaに、50メガバイトはsdbにありますか?もしそうなら、ファイルの一部が一方のドライブにあり、別の部分がもう一方のドライブにあることをOSに伝えるものは何ですか? ドライブの故障はどうですか?RAIDがないと仮定して、sdbが失敗した場合、sda上のすべてのデータは失われますか?とにかく、どのファイルがどの物理ドライブにあるかを制御する方法はありますか? 一般的にLVMをどのように管理しますか?1つまたは2つの大きなボリュームグループを作成してから、意味のあるパーティションを作成しますか?他のヒントはありますか?
13 linux  storage  lvm 

4
正確にUREとは何ですか?
最近RAID5とRAID6を検討してきましたが、URE5の評価とドライブのサイズの増加により、RAID5の安全性が低下していることがわかりました。基本的に、私が見つけたコンテンツのほとんどは、RAID5では、ディスク障害が発生した場合、アレイの残りが12TBであれば、UREを満たし、データを失う可能性がほぼ100%あると述べています。 12TBの数値は、ディスクが1つのUREに到達するために読み取られた10 ^ 14ビットで評価されるという事実に基づいています。 まあ、私はここに到達しないものがあります。読み取りは、セクターに向かうヘッドによって行われます。読み取りが失敗する原因は、ヘッドが死ぬか、セクターが死ぬことです。また、読み取りが他の何らかの理由で機能しないこともあります(振動により頭が跳ねるなど)。だから、3つの状況すべてに対処させてください: 読み取りが機能しない:それは回復不能ではありませんか?再試行できます。 頭は死にます。これは確かに回復できませんが、それはまた、大皿全体(または少なくとも側面)が読めないことを意味します。 セクターは死にます:完全に回復不能ですが、ここではUREで4TBディスクが10 ^ 14と評価され、UREで8TBが10 ^ 14と評価されている理由がわかりません。 8TB(おそらく新しい技術)は、4TBの半分の信頼性です。これは意味がありません。 ご覧のとおり、私が特定した3つの障害ポイントから、意味のあるものはありません。それでは、正確にUREとは何ですか、具体的にはどういうことですか? それを私に説明できる人はいますか? 編集1 最初の回答の波の後、その理由はセクターが失敗しているようです。良いことは、ファームウェア、RAIDコントローラー、およびOS +ファイルシステムに、それを早期に検出し、セクターを再割り当てする手順があることです。 さて、私はUREが何であるかを知っています(実際、名前はまったく自明です:))。 私は未だに根本的な原因とそれらが与える安定した評価に困惑しています。 故障したセクターは外部ソース(宇宙波)に起因すると考える人もいますが、それからUREレートが年齢ではなく読み取り回数に基づいていることに驚かされます。さらに、私は間違っているかもしれませんが、これはファンタジーに近いと思います。 ディスクの摩耗に関係するもう1つの理由があり、密度が高いほど磁区が弱くなるという指摘もあります。しかし、ここでうまく説明されているように、新しいディスクは、ほぼ同じプラッター(および同じ密度)をHDDシャーシに入れることで、さまざまなサイズが得られます。セクターは同じであり、すべてが非常に同じ信頼性を持っている必要があります。したがって、大きいディスクは小さいディスクよりも高いレーティングを持っている必要があります。セクターの読み取りは少なくなります。しかし、それは単に、より高い技術によるゲインが高密度による損失によって相殺されるために、より新しい技術を備えた新しいディスクが古いディスクよりも良い評価を得ない理由を説明するでしょう。

5
SATA SASインターポーザーカードの使用経験はありますか?
一方のSATAディスクとSASディスクの現在の価格差と、もう一方の大きなストレージアレイのSATAディスクの動作が潜在的に悪いため、いわゆるSATA-to-SASインターポーザーカードが見つかりました。 「既存のSATAディスクドライブにシームレスにSAS機能を追加する」と宣伝されているので、これらの製品や同様の製品を使用した経験がある人はいないでしょうか。私が識別できる主な利点は、ケーブル電圧の増加(すべてのドライブがSASに接続されている場合)、ドライブとマルチパスの電源の再投入機能(必要な場合)です。明らかに、SATAドライブはRAIDエディションでなければなりません。 問題は、これらのカードが実際にストレージシステムの全体的な信頼性を向上させるのか、それとも故障したSATAディスクが問題を引き起こすのかということです。 編集:私は仮説的な答えを求めているのではなく、実際の経験のみをお願いします。 典型的な10k SASドライブは、7200 SATAドライブよりも信頼性が高い(そしてパフォーマンスが良い)ことをよく知っています。しかし、SATAバージョンと物理的に同じディスクであるニアラインSASは、インターポーザー付きのSATAバージョンと比較してどうですか?
12 storage  sata  sas 

1
ESXiでディスクをSSDとしてマークするとどうなりますか?
VMWare ESXi / vSphereでは、ディスクまたはLUNを「フラッシュ」としてマークできます。これは、ディスクがSSDであることを示します(または、LUNはSSD /フラッシュストレージバックアップです) すると、次の警告が表示されます。 HDDディスクをフラッシュディスクとしてマークすると、それらを使用するデータストアとサービスのパフォーマンスが低下する可能性があります。これらのディスクがフラッシュディスクであることが確実な場合にのみ、ディスクをフラッシュディスクとしてマークします。 この警告は興味をそそります。フラッシュとしてLUNをマークすることは実際には何をしますか?VMwareの動作/パフォーマンスはどのように変わりますか?どのようにパフォーマンスを低下させることができますか、IEは低レベルで技術的に変化しますか?

7
ディスク容量に応じてストレージIOPSはどのように変化しますか?
他のすべての条件が同じであれば、より大きなディスクを使用するとストレージアレイのIOPSパフォーマンスはどのように変化しますか たとえば、10 X 100GBディスクを備えたアレイを使用します。 連続256kbブロック書き込みのIOPSを測定します(または任意のIOPSメトリック) 結果の測定IOPSが1000 IOPSであると仮定しましょう。 10 X 200GBディスクのアレイを変更します。同じRAID構成、同じブロックサイズなどでフォーマットします。 IOPSが同じままであるか、増加するか、減少するかを予想できますか?変更はほぼ線形ですか?すなわち、2X増加または2X減少(ディスク容量を2X増加させたため) 10 X 50GBディスクでこれらの質問を繰り返します。 編集:より多くのコンテキスト この質問は、ストレージのすべてに精通していないSysadminチーム間の会話として生じました。(ストレージの多くの面で快適ですが、SANの管理の詳細などではありません)。既存のトレイよりもディスクあたりのディスク容量が大きい(2倍の容量)新しいNetappトレイが大量に届きます。ディスクが大きくなったからといって、新しいトレイのIOPSは低くなるというコメントが寄せられました。次に、これを説明するために車のアナロジーが登場しました。どちらのコメントも私と相性が悪かったので、The Team、つまりStack-Exchange-landに実行したかったのです。 車の例えは、加速が異なり、最高速度が同じで、4分の1マイル走る2台の車に関するものでした。次に、距離を0.5マイルに変更します。実際、正確なアナロジーを思い出すことはできませんが、interwebzで類似した別のものを見つけたので、おそらく一般的なIOPSアナロジーだと思いました。 ある意味では、この情報を使用して購入を評価していないため、質問に対する実際の答えはそれほど重要ではありません。しかし、既存のヘッドにトレイを取り付ける最適な方法、および骨材とボリュームを切り分ける最適な方法を評価する必要があります。

2
RAID上のVMware ESXi SSDが非SSDとして表示される
KVMサーバーをESXiサーバーに置き換えています。ESXi 5.5u1をインストールし、データストアを追加しました。新しいサーバーには、ハードウェアRAIDを使用したRAID 6のSSDドライブが4つあります。データストアを追加すると、VMwareはストアが非ssdであると言います。 これは正常ですか?VMwareは、SSD自体ではなく、RAIDカードによって公開された仮想ディスクを見ていることは明らかです。最高のパフォーマンスを得るには、VMwareにソリッドステートディスクであると伝える必要がありますか?それとも、RAIDカードに任せるべきですか?私は主にTRIMを心配しています。

4
多くの異なる外部HDを同時に接続する
今後のプロジェクトには大量の外部ストレージが必要です。10個の2TB外付けドライブを購入する予定です。それらをすべて単一のマシンに同時に接続する必要があります。どのような問題に遭遇しますか? 2本の電源タップを使用し、それらすべてを壁から外部から給電することを計画しています。USBハブを使用して、すべてのドライブを接続します。ドライブのアクセス時間をできるだけ速くする必要があります。 Ubuntu Linux(64ビット)を使用しています。10台のドライブをマウントできますか?

3
最大スループットのためのLinuxディスクキャッシュ動作の調整
ここで最大スループットの問題に直面しているため、ノブを調整する方法についてのアドバイスが必要です。バックアップ配布用に10Gbitファイルサーバーを実行しています。これは、LSI MegaRAIDコントローラ上の2ディスクのS-ATA2セットアップです。サーバーは24gigのメモリも取得しました。 最後にアップロードしたバックアップを最大スループットでミラーリングする必要があります。 「ホット」バックアップ用のRAID0では、書き込みが約260 MB /秒、読み取りが約275 MB /秒です。サイズが20GBのtmpfsをテストすると、約1GB /秒になります。この種のスループットが必要です。 Linuxの仮想メモリサブシステムを調整して、最後にアップロードされたファイルをディスクに書き出さずにできるだけ長くメモリにキャッシュする(またはさらに良い方法:ディスクに書き込んでメモリに保存する)にはどうすればよいですか? 次のsysctlをセットアップしましたが、期待されるスループットを提供しません。 # VM pressure fixes vm.swappiness = 20 vm.dirty_ratio = 70 vm.dirty_background_ratio = 30 vm.dirty_writeback_centisecs = 60000 理論上、これは I / Oのキャッシュに16GBを与え、ディスクへの書き込みまで数分待つ必要があります。それでも、サーバーのベンチマークを行っても、書き込みに影響はありませんが、スループットは増加しません。 ヘルプまたはアドバイスが必要です。
12 linux  ftp  storage  cache 

2
フラッシュから小さなOSを起動するための、Dellのミラー化されたSDカードモジュールの代替品
デルは、いくつかのサーバーにアドオンハードウェアカードを提供しています。このハードウェアカードは、書き込み負荷が非常に少ない単純なOSを起動するために、2つのSDカード間で貧弱な人のRAID1を提供します(1つのカードは、死ぬまですべての読み取りを取得し、書き込みはミラーリングされます) OSストレージ(つまりESXi)- こちら(警告:PDFリンク)を参照してください。 SANから起動したり、ホストを取り出すことで発生するわずかな安価なフラッシュ障害を心配したりすることなく、ディスクレスVMホストを実行するのに最適ですが、それをサポートするシステムのBIOSに統合されるという点で非常にプロプライエタリです。 サーバーハードウェアベンダーなどが提供する、これに似た他のソリューションがありますか(統合されたRAID1を備えたカスタムUSBフラッシュリーダーを想像していますか?) 「いくつかの特定のDellサーバー」よりも?

4
HP ProLiant DL385 G7での非常に低いディスク性能
Opteronプロセッサフ​​ァミリのテストとして、HP Smart Array P410iコントローラを搭載したHP DL385 G7 6128を購入しました。メモリはありません。 マシンには、20GB RAM 2x146GB 15k rpm SAS + 2x250GB SATA2があり、どちらもRAID 1構成です。 VMware ESXi 4.1を実行しています。 問題: 仮想マシンが1台のみの場合でも、Linux 2.6 / Windows Server 2008 / Windows 7を試してみましたが、VMの動作は非常に遅くなっています。Windows 7では、VMware Converterのインストールもタイムアウトしました。SATAディスクとSASディスクの両方を試してみましたが、SATAディスクはほとんど使用できませんが、SASディスクは非常に遅く感じます。インフラストラクチャクライアントで多くのディスクアクティビティを確認することはできませんが、安価なraidコントローラーが原因であるか、または単にそれのためのメモリ。 問題はありましたが、重要な機能を果たす仮想マシンを継続してインストールしたため、それを停止して診断を実行するのは簡単ではありません。 あなたが言っていることを知りたいのですが、コントローラ/ディスクに問題がある可能性が高いのですか、それとも予算コンポーネントのためにパフォーマンスが低いのですか? 前もって感謝します、

3
KVM / libvirtホストとゲスト間で共有されるLVMボリュームグループ:これは悪い考えですか?
4つのSATA IIハードドライブを搭載し、CentOS 5.5 x86_64を実行する、光沢のある新しいKVM / libvirtベースの仮想マシンホストを構築しました。 ディスクをqcowイメージとして作成する通常のプラクティスの代わりに、libvirtストレージプールとして管理されるLVMボリュームグループに論理ボリュームとして仮想マシンディスクを作成することにしました。 私が決められないのは、VMホストのボリュームグループに仮想マシンの論理ボリュームを作成するか、専用のボリュームグループに作成するかです。 どの方法を選択する必要があり、なぜですか? 方法1:VMホストのボリュームグループを使用する 実装: ファイルシステムmd0を含む小さなRAID1/boot md1LVMボリュームグループを含む残りのスペースを占める大きなRAID10 vghost。vghostVMホストのルートファイルシステムとスワップパーティションが含まれます vghost必要に応じて、仮想マシンディスクを論理ボリュームとして作成します 長所: VMホストのルートファイルシステムがスペースを使い果たした場合、vghost比較的簡単により多くのスペースを割り当てることができます システムはすでに稼働しています(ただし、最初からやり直すことは大したことではありません) 短所: この方法が機能しているように見えるという事実を無視して、これが何らかの形で悪い考えであるという感覚を揺るがすことはできません。私はそのように感じる: これは何らかの形でセキュリティリスクになる可能性があります 将来のある時点で、セットアップに何らかの制限があり、専用のグループを使用したい システム(CentOS、libvirtなど)は実際にはこのように使用するように設計されていない可能性があるため、ある時点でVMホストのファイルやファイルシステムを誤って破損/紛失する可能性があります 方法2:専用のボリュームグループを使用する 実装: 方法1 md0と同じmd1。ただしmd1、VMホストを収容するのに十分な大きさにする(5〜10GBなど) md2残りのスペースを占める大きなRAID10 。論理ボリュームが仮想マシンによって排他的に使用されるmd2LVMボリュームグループを含むvgvms 長所: vgvmsホストOSを壊すことを恐れずにいじることができます これはよりエレガントで安全なソリューションのようです 短所: VMホストのファイルシステムがスペースを使い果たした場合、そのファイルシステムの一部(たとえば、/ usrまたは/ var)をvgvmsに移動する必要があります。 ホストOSを再インストールする必要があります(以前に述べたように、実行することはあまり気にしません) 更新#1: 方法2でVMホストのディスク領域が不足することを心配する理由の1つは、VMホストがすべてのサービスを仮想マシンで実行できるほど強力かどうかわからないためです。一部またはすべてのサービスを仮想マシンからホストOSに移行する必要がある場合があります。 VMホストのハードウェア仕様: Phenom II 955 X4 Black Editionプロセッサー(3.2 GHz、4コアCPU) 2x4GB Kingston PC3-10600 …


8
データセンターの電力要件。A = W / V ...バカなことをしているに違いない
OK この記事に基づいて、サーバー拡張のために来年、新しいラックを設置する予定です。 各サーバーには大量のドライブがあり、その結果、大量の電力を使用します。 このラックには含まれます。 1台のCiscoルーター。 1つのファイバースイッチ 1 1Uストレージコントローラー、標準Dell 850サーバー。 11個の3Uストレージサーバー。それぞれに750ワットのデュアル電源が搭載されています。 だから...私は理論的に必要なアンプの数を計算しようとしています。3U-45ドライブのサーバーがどれだけプルするかを確認するためのサンプルサーバーはまだありません。そのため、2つの電源が必要であると考えているため、1000ワットの電力を供給できます。ハードドライブには十分で、オンボードのものには十分です。11 x 1000ワットは明らかに11000ワットの電力です。 A = W / V。W =11000。V= 120v。A = 91。 これは私の脳がちょっとつまずいたところです。91アンペアの電力はまったくの狂気です。(私がラックATMにパイプしたのは40で、容量は60%しかありません。 また、サーバーごとに1000wしか使用されていないこともあります。PSUがシステムに1500ワットの最大電流を流している場合は、140アンペアに相当します。 ....この音は正しいですか?確かに私は何か間違ったことをしました、140アンペアのパワーは狂気です。 ****編集:ボックスは実際には4Uであるため、ここで表示される数値は異なりますが、それほど大きくありません。

8
Dell / HP / Sunなどのストレージサーバーベンダーから高価なハードドライブを購入する理由
Dell MD1000 / MD3000やSun J4200などのストレージサーバーをブラウジングしていますが、ストレージサーバーの価格は妥当と思われます(約$ 3000- $ 4000 AUD)。そして、なぜかわかりません。せいぜい高品質のRAIDレベル7200rpm SATAドライブを使用しているにすぎませんが、それでも価格のほぼ4倍を充電しています。それらからこれらを購入する利点は何ですか? 障害が発生した場合、それを交換するベンダーが便利です。しかし、その価格で、2倍の数のHDDを購入し、スペアを手元に置いて、メーカーに直接保証を請求することができます。それははるかに安くなり、あなたはあなたの問題を解決するために他の誰かに頼ることはないでしょう。 これは、「IBMを購入しても解雇されない」というケースですか?メンタリティ、または私がここで把握していない何らかの理由がありますか?
12 storage 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.