タグ付けされた質問 「storage」

主にディスクストレージに関する質問です。アプリケーションストレージまたはクラウドストレージに関する質問もあります。データの保存について常に質問します。

1
2.5インチドライブと3.5インチドライブ
2.5インチドライブと3.5インチドライブの比較を公開しています。私が想定していたのは、2.5インチ15kドライブと3.5インチ15kドライブのパフォーマンスは同じであることですが、最近2.5インチ15kはかなり高速であり、10k 2.5インチは15k 3.5とほぼ同じ速度であると主張するベンチマークが表示されましたインチ。問題は、これらのベンチマークが実行されたプラットフォームが原因で、ほとんどの人がこれらのベンチマークを再現できないことです。 基本的に、いくつかの3.5インチ15kドライブを使用するメインフレームは、同じ設定の10k 2.5インチドライブを使用するメインフレームとほぼ同じように動作しますか?

6
VMware VMFS5とLUNのサイジング-複数の小さなデータストア、または1つの大きなデータストア?
VMFS5にはVMFSボリュームの2TBの制限がなくなったため、どのシナリオが全体的により有益になるかを検討しています:- より大きなサイズの少ないLUN、または 小さいサイズのより多くのLUN。 私の場合、600 GBのディスクを備えた新しい24ディスクストレージアレイを持っています。私はRAID10を使用するので、およそ7.2TBで、1つの大きな7TBデータストアを使用するか、それともそれぞれ1TBの複数のストアを使用するかを決定しようとしています。 各アプローチの長所と短所は何ですか? 更新:もちろん、計算にホットスペアを含めなかったため、7.2TB未満になりますが、一般的な考え方は同じです。:-) 更新 2:60個のVMと3個のホストがあります。私たちのVMはどれも、特にI / O集約型ではありません。それらのほとんどはWeb /アプリケーションサーバーであり、監視(munin / nagios)、最小負荷の2つのWindows DCなども含まれます。I / O要件が非常に低い場合を除いて、DBサーバーが仮想化されることはほとんどありません。現在、私が持っている唯一の仮想DBサーバーはMSSQLボックスであり、そのボックスのDBは1GB未満だと思います。 アップデート3:アレイとFC接続の詳細。アレイはIBM DS3524で、それぞれ2GBキャッシュを備えた2つのコントローラーです。コントローラあたり4x 8Gbit FCポート。各ESXiホストには2x 4Gbit FC HBAがあります。

2
/ home / vhosts /または/ var / www /
私が出会ったいくつかのWebサーバーは、/ homeを使用してサイトファイルを格納します。 /home/vhosts/www.example.com/ 他の人は/ varのように使用します: /var/www/www.example.com/ よりクリーンで「Linuxy」なのは何ですか?私たちはみんな使うべき/usr/local/www/ですか? 可能なソース:http : //www.tuxfiles.org/linuxhelp/linuxdir.html

1
ファイバーチャネルファブリック上のデバイスの正しい配置
ファイバーチャネルファブリック用の新しい8 Gbスイッチのペアを取得しています。プライマリデータセンターのポートが不足しているため、これは良いことであり、2つのデータセンター間で少なくとも1つの8Gb ISLを実行できるようになります。 2つのデータセンターは、ファイバーが走るときに約3.2 km離れています。私たちはここ数年、4Gbの安定したサービスを利用しており、8Gbも維持できることを期待しています。 私は現在、これらの新しいスイッチを受け入れるようにファブリックを再構成する方法を考えています。数年前のコスト決定により、完全に独立したダブルループファブリックは稼働していません。完全な冗長性のコストは、スイッチ障害のありそうもないダウンタイムよりも高価であると考えられていました。その決定は私の時間の前に行われ、それ以来、物事はあまり改善されていません。 この機会に、スイッチの障害(またはFabricOSのアップグレード)に備えてファブリックの回復力を高めたいと思います。 これが、レイアウトについて私が考えていることの図です。青色の項目は新しいもので、赤色の項目は(削除)される既存のリンクです。 (ソース:sysadmin1138.net) 赤い矢印の線は現在のISLスイッチリンクであり、両方のISLは同じスイッチからのものです。EVA6100は現在、ISLのある16/4スイッチの両方に接続されています。新しいスイッチにより、リモートDCに2つのスイッチを配置できるようになり、長距離ISLの1つが新しいスイッチに移動します。 これの利点は、各スイッチが別のスイッチから2ホップ以内であり、EVAレプリケーション関係にある2つのEVA4400が互いに1ホップであることです。グラフのEVA6100は古いデバイスであり、最終的にはおそらく別のEVA4400と交換される予定です。 グラフの下半分は、ほとんどのサーバーが配置されている場所であり、正確な配置についていくつか懸念があります。そこに入る必要があるもの: 10 VMWare ESX4.1ホスト EVA6100上のリソースにアクセスします 1つのフェールオーバークラスター(ファイルサーバークラスター)内の4つのWindows Server 2008サーバー EVA6100とリモートEVA4400の両方のリソースにアクセスします 2番目のフェールオーバークラスター内の2台のWindows Server 2008サーバー(Blackboardコンテンツ) EVA6100上のリソースにアクセスします 2つのMS-SQLデータベースサーバー EVA6400のリソースにアクセスし、夜間のDBエクスポートをEVA4400に送信 2つのLTO4テープドライブを備えた1つのLTO4テープライブラリ。各ドライブには独自のファイバーポートがあります。 (このリストに含まれていない)バックアップサーバーはそれらにスプールします 現時点では、ESXクラスターは、スペースのためにVMのシャットダウンを開始する必要がある前に、最大3つ、場合によっては4つのホストのダウンを許容できます。幸い、すべてでMPIOがオンになっています。 現在の4Gb ISLリンクは、私が気づいた飽和に近づいていません。これは、2つのEVA4400の複製によって変わる可能性がありますが、ISLの少なくとも1つは8Gbになります。EVA4400-Aから得られるパフォーマンスを見ると、レプリケーショントラフィックがあっても4Gbのラインを越えるのは難しいと確信しています。 4ノードのファイルサービスクラスターは、SAN1SW4に2つのノード、SAN1SW1に2つのノードを持つことができます。これにより、両方のストレージアレイが1ホップ離れます。 私がやや頭を悩ませている10個のESXノード。SAN1SW4に3つ、SAN1SW2に3つ、SAN1SW1に4つはオプションであり、レイアウトに関する他の意見を聞きたいと思います。これらのほとんどはデュアルポートFCカードを備えているため、いくつかのノードを二重に実行できます。それらのすべてではありませんが、すべてを殺すことなく単一のスイッチが失敗するのに十分です。 2つのMS-SQLボックスは、プライマリストレージに近い必要があり、db-exportパフォーマンスはそれほど重要ではないため、SAN1SW3およびSAN1SW2に配置する必要があります。 LTO4ドライブは現在、メインのストリーマーから2ホップと2ホップ上にあるので、どのように動作するかは既に知っています。これらはSW2とSW3に残すことができます。 グラフの下半分を完全に接続されたトポロジにしないでください。これにより、使用可能なポート数が66から62に減少し、SAN1SW1は25%ISLになります。しかし、それが強く推奨されている場合は、そのルートに進むことができます。 更新:おそらく役立ついくつかのパフォーマンスの数値。私はそれらを持っていました、私はそれらがこの種の問題に役立つと間隔をあけました。 上の図のEVA4400-Aは次のことを行います。 就業日中: ファイルサーバークラスターのShadowCopyスナップショット(平均約​​15〜30秒)の間に、I / Oオペレーションは平均で1000以下でスパイクは4500に急上昇します。 MB / sは通常10〜30MBの範囲にとどまり、ShadowCopies中に最大70MBおよび200MBのスパイクが発生します。 夜間(バックアップ)は、実際に速くペダルを踏むときです。 I / Oオペレーションの平均は約1500で、DBバックアップ中のスパイクは最大5500です。 MB …

1
LinuxでのJBODパフォーマンスへのSASマルチパスの改善
Linux搭載の一部のSunハードウェアでストレージ設定を最適化しようとしています。どんな考えでも大歓迎です。 次のハードウェアがあります。 Sun Blade X6270 2 * LSISAS1068E SASコントローラー 2 * Sun J4400 JBOD、1 TBディスク(JBODごとに24ディスク) Fedora Core 12 FC13の2.6.33リリースカーネル(FC12の最新の2.6.31カーネルでも試したが、同じ結果が得られた) SASハードウェアのデータシートは次のとおりです。 http://www.sun.com/storage/storage_networking/hba/sas/PCIe.pdf PCI Express 1.0a、8xレーンを使用しています。レーンごとに250 MB /秒の帯域幅があれば、SASコントローラーごとに2000 MB /秒を実行できるはずです。 各コントローラーは、ポートごとに3 Gb /秒を実行でき、2つの4ポートPHYを備えています。コントローラからの両方のPHYをJBODに接続します。したがって、JBODとコントローラーの間には、2つのPHY * 4つのSASポート* 3 Gb /秒= 24 Gb /秒の帯域幅があり、これはPCI Expressの帯域幅よりも大きくなります。 書き込みキャッシュを有効にして、大量の書き込みを行う場合、各ディスクは約80 MB /秒(ディスクの開始近く)を維持できます。24個のディスクがあれば、JBODごとに1920 MB /秒を実行できるはずです。 マルチパス{ rr_min_io 100 uid 0 …
10 linux  storage  sun  sas  multipath 

2
EMC VNXe GNUソースコード
EMCがVNXe製品のGNUソースコードをホストする場所を知っている人はいますか? 簡単な問題を修正するためにダイヤルインするためにDelhi / Idahoに電話することにうんざりしており、一時的なパスワードシステムのアルゴリズムを理解し、WebExの待機時間を避けたいと考えています。 メタ 誰かがプロのシステム管理者であることについて話し合いたいので、いくつかのコンテキストを追加する価値があるかもしれません。「ソリューションプロバイダー」は、運用が介入する前に上級管理職にEMC VNXeソリューションを誤って販売しました。24時間年中無休のアラームモニタリング環境では問題があり、継続的に修正する必要があります。 火災警報または孤独な労働者警報が来るダウンタイムの毎秒は誰かが彼らの命を失う可能性を増やします。それは置き換えられていますが、企業間の政治とコストにより、これは1〜2か月になります。その間、私はアカウントマネージャーとエスカレーションプロセスをいじる時間はありません。これを機能させ、すぐに修正するためのアクセス権が必要です。そうでなければ、私は適切なチャネルを通過することに完全に同意します。 メタの終わり
10 storage  emc  emc-vnxe 

2
CentOS 6はCentOS 5よりも多くのIOを実行
私は2つの同じサーバーでアプリケーションをベンチマークしています。1つはCentos 5.8で、もう1つはCentos 6.2です。私のアプリケーションは、Centos 6.2マシンで非常に遅く(50%以下)実行されています。 問題を診断するために、ベンチマークの実行全体を通じてCPU、RAM、およびIOを追跡しています。Centos 6.2ボックスでは、iostatで測定すると、ディスクの読み取りが大幅に多いことがわかります。 どちらのシステムも、ベンチマークが実行されている場所でXFSを実行しています。どちらも、512 MBキャッシングRAIDコントローラーを搭載したHPサーバーで、RAID 10を実行する8 x 300GB SAS 以下は、それぞれのxfs_infoの出力です。 centos5 meta-data=/dev/cciss/c0d0p5 isize=256 agcount=32, agsize=8034208 blks = sectsz=512 attr=0 data = bsize=4096 blocks=257094144, imaxpct=25 = sunit=32 swidth=128 blks, unwritten=1 naming =version 2 bsize=4096 log =internal bsize=4096 blocks=32768, version=1 = sectsz=512 sunit=0 blks, lazy-count=0 realtime =none extsz=4096 blocks=0, …

3
ec2ストレージのどの部分が一時的であるかを知る方法
これはばかげた質問かもしれませんが、私の無知を失礼します。 次のように実行されているインスタンスがあります。 DOES ルートデバイス:EBSは EBS上で私の全体のシステムを意味しているのですか? ここでapacheとperlアプリを構成しましたが、すべての構成とファイルがなくなるわけではありませんか? エフェメラルストレージで実行されているものとEBSで実行されているものを知るにはどうすればよいですか?管理コンソールでインスタンスをクリックして下部の詳細を見ると、次のように表示されEBS Optimized: falseます。これは正確にはどういう意味ですか? 私のストレージは次のようになります: [ec2-user@<MY_IP> ~]$ df -h Filesystem Size Used Avail Use% Mounted on /dev/xvda1 7.9G 1.7G 6.2G 22% / tmpfs 298M 0 298M 0% /dev/shm [ec2-user@<MY_IP> ~]$ mount /dev/xvda1 on / type ext4 (rw,noatime) proc on /proc type proc (rw) sysfs on …

1
mdadmおよび4kセクター(高度なフォーマット)
Serverfaultには4kセクターのディスクの調整について多くの質問がありますが、1つだけはまだはっきりしていません。 RAID1 + LVMの調整に成功しました。私がしたことの1つは、mdadmスーパーブロックバージョン1.0(スーパーブロックをディスクの最後に格納する)を使用することでした。 マンページはこれを言っています: 異なるサブバージョンは、デバイスの異なる場所にスーパーブロックを格納します。末尾(1.0の場合)、先頭(1.1の場合)、または先頭から4K(1.2の場合)のいずれかです。「1」は「1.0」と同等です。「デフォルト」は「1.2」と同等です。 デフォルトである1.2バージョンは4kセクタードライブ用に作られていますか?最初から4k +スーパーブロックの長さは4kの倍数ではないため(私が正しく覚えていれば、スーパーブロックの長さは約200バイトです)、私が見る方法ではそうではありません。 これについての洞察は大歓迎です。 編集: mdadmスーパーブロック1.1および1.2は4kアライメント用であると、以下に回答しました。私はデバイス全体のレイドを作成しました: mdadm --create /dev/md4 -l 1 -n 2 /dev/sdb /dev/sdd 次に、それに論理ボリュームを追加しました。 vgcreate universe2 /dev/md4 アレイは16 MB /秒で同期しています。 md4 : active raid1 sdd[1] sdb[0] 1465137424 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (13100352/1465137424) finish=1471.6min speed=16443K/sec だから私はそれが正しく調整されているとは思いません。 (ディスクは1.5 TB WD …

1
9x7ドライブraidz2(ZFS ZoL 0.8.1)のシーケンシャル速度が遅い
Ubuntu 18.04で、256K以上のリクエストサイズのシーケンシャルな読み取りと書き込み(バックアップ用)を介して構築された大きなZFSプールを実行しています。高いスループットとスペース効率の必要性、およびランダムな小ブロックパフォーマンスの必要性が少ないことを考慮して、ストライプミラーではなくストライプraidz2を使用しました。 ただし、256Kのシーケンシャルリードパフォーマンスは予想よりもはるかに低くなっています(100〜200MBps、ピークは最大600MBps)。zvolがiostatで最大99%のiowaitに達している場合、バッキングデバイスは通常10から40%のiowaitで動作します。これは、バックプレーンまたはCPUであってはならないので、ボトルネックが構成に欠けていることを示唆していますこのシステム、およびシーケンシャルワークロードは、ARCをあまり強く動作させるべきではありません。 私はモジュールパラメータ(以下の現在の構成)でかなり遊んだり、数百の記事を読んだり、OpenZFS githubの問題などを行ったりしました。プリフェッチと集約を調整すると、このパフォーマンスレベルになりました。デフォルトでは、約50MBpsで実行していました。 ZFSがディスクにTINYリクエストを送信していたため、シーケンシャルリード(約16K)。集約とプリフェッチは正常に機能していると思いますが(おそらく)、iostatのディスク読み取りは平均で約64Kです。 NICはLIO iscsiターゲットであり、cxgbitオフロード+ Windows Chelsio iscsiイニシエーターはZFS zvolsの外側で適切に機能し、直接マッピングされたオプタンがNICでほぼフルラインレートを返します(約3.5GBpsの読み取りと書き込み)。 期待しすぎですか?ZFSはパフォーマンスよりも安全性を優先することを知っていますが、7x9 raidz2が単一の9ドライブmdadm raid6よりも優れた順次読み取りを提供することを期待しています。 システムの仕様とログ/構成ファイル: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

4
ストレージの消費を最小限に抑える方法は?
ライブサーバー、ユーザー承認サーバー、ステージングサーバー、開発サーバー(この場合は主に2012r2、すべてのHyper-Vゲストのウィンドウ)のネットワークがあります。ネットワークのこれらの各部分には、フロントエンドサーバーとバックエンドサーバーがあります。バックエンドサーバーには、比例して大量のデータが含まれます。ユーザーアクセプタンス、ステージングサーバー、および開発サーバー全体で、このデータは変化せず(ライブからの時折の更新は別)、開発サイクルの外ではほとんどアクセスされません。 このタイプの環境では、ストレージの消費を最小限に抑え、静的でほとんどアクセスされないデータのストレージスペースを無駄にしない方法を教えてください。データは、pdf、json、dwgs、pngなどの数千のファイルで構成されています。 私が考えたこと。 使用していないサーバーの削除-これらのサーバーを復元する時間が開発者がサーバーを使用する時間よりも重要になる場合があるため、あまり良い方法ではありません。当社のバックアップソリューションは、MS Data Protection Managerです。 使用していないときにデータディスクを削除する-上記より少し良いですが、やはり時間が重要です。 サーバー間でのデータディスクの移動-それらはHyper-Vゲストなので、必要に応じてデータディスクを接続するだけで済みますが、同時に複数の環境が使用されている場合があります。

4
ハードウェアRAID 6上のZFSストライプ。何が問題になる可能性がありますか?
36 * 4TB HDD SANラックを持っています。RAIDコントローラは、RAID60をサポートせず、1つのRAIDグループで16台以下のHDDをサポートしました。それで、16HDDの2つのRAID6グループまたは8つのHDDのうちの4つのHDDを作ることにしました。すべてのストレージを1つのパーティションとして取得したい。 それで、ハードウェアRAID6の上でzfsプールを使用する場合、何が問題になる可能性がありますか?ええ、ネイティブHDDまたはパススルーモードを使用することを強くお勧めします。しかし、私にはこのオプションはありません。 または、私はこの状況でZFSとソフトウェアRAIDから離れるべきですか?(私は主に圧縮とスナップショットに興味があります)

1
フェイルオーバークラスターでHBAを混在させる
2サーバーフェールオーバークラスターを使用していますが、さまざまな理由で、ハードウェアが一致していないためです。 1つはEmulex HBAがインストールされており、もう1つはQlogicです。 ボックス内でマルチパスを行うために、カードの2つの異なるメーカー/モデルを使用することについては、気が引けるでしょう。したがって、共有ストレージフェールオーバークラスターで実行するのは少し不快です。 これが悪い(または良い?)アイデアである特定の理由はありますか、それとも私は過度に心配していますか?

3
docker-machineが再起動時にデータをクリアするのはなぜですか?
OSXでDocker Toolboxを使用しています。 永続データを保存するためのデータボリュームコンテナーを作成しました:https : //docs.docker.com/userguide/dockervolumes/#creating-and-mounting-a-data-volume-container。 このデータが実際にはboot2docker VM(docker-machineによって作成された)に保存されており、コンテナーには保存されていないことを確認しました。ただし、「docker-machine restart」は、vm上のこのカスタムデータをクリアします。 何が起こっているかについてのドキュメントが見つかりません。/ var / lib / docker内のデータが保持されることを言及しているフォーラム投稿を1つ見つけましたが、それを述べている公式のドキュメントは見つかりませんでした。また、上記の永続ストレージガイドがこのパスを使用していないことや、データは削除されます。 これは予想されたものであり、永続的なデータを保存するための正しいパスに関する公式ドキュメントはありますか? 編集:失敗したシナリオの例を追加 $ docker-machine ssh alt docker@alt:~$ docker run -v /data:/var/lib/mysql --name mydata busybox sh -c "echo 'hello' > /var/lib/mysql/hello" docker@alt:~$ docker run --rm --volumes-from mydata busybox sh -c "cat /var/lib/mysql/hello" hello docker@alt:~$ exit $ docker-machine …

3
24ディスクアレイのベストプラクティス
古いファイバーSANストレージ用に24 SAS 600GBディスクを備えたIBM v3700 storwizeに移行しました。 このストレージは、それぞれが2つの6GbpsマルチパスSASコントローラーを備えた2つのIBM ESXi 5.5サーバーに直接接続されています。 これまで、使用したスト​​レージを複数のRAID5グループに構成しました。各グループは、異なるサーバー/目的用です。主にRAIDグループは、OracleDB、Oracleアーカイブ、SQL Server、その他(ファイルサーバー、メールなど)です。最も重要なアプリケーションはOracleとSQL Serverです。 私の最初の関心事は、アプリケーションの安全性とパフォーマンスです。したがって、私はRAID6 +スペアを使用することにしました。 私の主な懸念は、ESXiを使用しているため、ストレージ全体を1つのRAIDに構成し、スペースを節約して、ESXiからサーバーごとにデータストアボリュームを作成する必要があるか、またはこれは良い方法ではなく、個別に作成することをお勧めしますハードウェアRAIDグループ?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.