タグ付けされた質問 「storage-area-network」

SANは、ネットワーク全体のストレージサブシステムへのブロックレベルのアクセスを提供するストレージエリアネットワークです。

5
私の新しいOracle DBAの話はセンスですか
MSSQLボックスにFC LUNをセットアップするとき、さまざまな種類(クォーラム、MSDTC、TempDB、データ、ログ、バックアップなど)の約8個を超える個別のLUNをそれらに提示する必要はほとんどありません。 新しいOracle DBAがあり、彼は最初の新しいサーバーに必要なLUNのリストを私に与えてくれました-それらは38個あります!これは、DBが1つしかない、非常に基本的なDBボックス用です。それらはすべてかなり小さい(100GB)LUNであり、LVMタイプの方法でASMを使用して明確にまとめられています。 これを行うための最良の方法は、私はオラクルの専門家ではありませんが、私にとっては複雑すぎるようですが、この問題に関するあなたの考えや経験は何ですか?

12
価格以外にNetApp SANソリューションのマイナス面はありませんか?[閉まっている]
この質問が将来の訪問者に役立つことはまずありません。それは、小さな地理的領域、特定の瞬間、またはインターネットの世界的な視聴者には一般に適用できない非常に狭い状況にのみ関連します。この質問の適用範囲を広げるには、ヘルプセンターをご覧ください。 7年前に閉鎖されました。 私たちは、最初のSAN向けのNetAppソリューションをほぼ決定しました。それを考えると、NetAppを使用しない理由をできる限り見つける必要がありました。私たちはこれを行うのが好きですA)私たちは何をやっているのかを知っています。そしてB)避けられないポストベンダーのデモの幸福感によって曇っていません。私は短所のためにインターネットを精査し、1つだけ見つけることができます:価格。 NetAppで悪夢のような体験をしたことがありますか?ネットアップの経験がある人のみにしてください。 ありがとうございました!

7
SQL Server Files LocalまたはNASまたはSAN?
SQL Server 2008を備えた新しいサーバーをインストールする必要があります。Raid10またはNAS内のファイルを備えた1つのサーバーをお勧めしますか? iSCSIについてはどうすればいいですか? SANはどうですか? サーバーには4GbのRAMがあり、そのデータベースファイルは約2GBです。 今日、サーバーにRAIDがないことを明確にするために、何らかの戦略を実装する必要があります。何か問題が発生した場合、ファイルを安全に保管できます。ローカルファイル、NAS、SANを選択する必要があります。どのオプションが最もパフォーマンスが高く、どのオプションがより安全ですか?

2
マウントされたドライブRedhat 7から空き領域を取得する方法
VMインフラストラクチャには、クラスター化されたホストがSANに接続されています。 私が理解しようとしているのは、Redhatサーバー内のファイルを削除するときに、「空白」がどれだけ残っているかです。Windowsサーバーではsdeleteを使用しているため、この問題は解決されますが、Linuxでは解決策を見つけるのに苦労しています。 「空白」をセクターとして定義していますか?SSDドライブは、書き込みを行う前に最初にゼロを設定する必要があるため、ゼロのままではありません。 私が指摘することの1つは、Linuxに関して言えば、危険であると十分に知っているが、スーパーユーザーではないということです。 ドライブとパーティションを確認します。 [root@rhserver1-DATA10 /]# fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x0005d52e …

9
このRAID 5構成では、ディスクがいくつ多すぎますか?
HP 2012i SAN、 RAID 5に7つのディスクと1つのホットスペア、 ボリュームを5から7の300GB SASドライブに拡張するのに数日かかりました。 SANに2つのボリュームがあり、それぞれがRAID 5である方が良いと判断する時期と方法についての提案を探していますか? いつかコントローラーに3つのドライブを追加できます。SANはESX / vSphere VMに使用されます。 ありがとうございました...

4
プライベートIP範囲を割り当てるためのベストプラクティスですか?
特定のプライベートIPアドレス範囲を特定の目的に使用することは一般的な習慣ですか? 仮想化システムとストレージサーバーのセットアップを検討し始めています。各システムには2つのNICがあり、1つはパブリックネットワークアクセス用、もう1つは内部管理およびストレージアクセス用です。 企業が特定の目的で特定の範囲を使用することは一般的ですか?もしそうなら、これらの範囲と目的は何ですか?それとも、みんな違うやり方をしていますか? 新規採用などのために物事を単純化するために、標準的な慣行とはまったく異なることをしたくありません。

1
SANルーティングのポイントは何ですか?
スイッチを追加してファブリックを拡張することはよく知っていますが、ファブリック間でルーティングを行う方が良い場合もあります(すべてのスイッチが同じベンダーのものであり、まったく同じFCプロトコルを使用しているなど)。 たとえば、ベンダーAのストレージアレイを備えたファブリックがあります。ベンダーBの新しいストレージが構成されており、現在のファブリックを拡張する代わりに、古いファブリックと新しいファブリックをルーティングするように選択されました。 ファブリックの最大サイズに関するベストプラクティスはありますか?現在のファブリックを拡張する代わりにSANルーティングを使用するのが最適なのはいつですか?

4
SANのディスク速度パフォーマンス
現在、SANの購入を検討しており、アレイに配置するディスクの速度について懸念があります。通常、毎回1万個を超える15,000個のディスクを使用していましたが、ベンダーの1社は、2の大きな違いに気付かないと言っており、価格差はまったく異なります。 SASディスクを搭載したHP 2040または4400 SANを検討しています。ディスク間に大きな違いは見られませんか?

6
SANをどのようにバックアップしますか?
長年の読者、初めての質問者:) 私は一般的にiSCSIとSANについて多くのことを読んでおり、トピックに関する私の質問と懸念のほとんどに答えることができたと思いますが、これは残っています: どのようにして「SANをバックアップしますか?」 以下は、実際のシナリオとそれに関する私の考えと質問です。 小規模ながらも適切なストレージソリューション、つまりiSCSIベースのSANに最終的に資金を提供するように、中小企業の経営陣を説得できたとします。エンクロージャ内に多数のドライブを搭載し、OpenFilerを実行するサーバー、またはMD3000i(Dell)またはMSA2000i(HP)で構成されていると仮定します。 LUNは、コードリポジトリ、ドキュメント、画像などを保存する必要のあるサーバー、いくつかのデータベースを実行する別のサーバー、仮想化ゲスト(Xen-speakのDomU)としてLUNを使用する別のサーバー、さらに別のサーバーにエクスポートされますNFSを介してユーザーのホームディレクトリを含む1つの大きなLUNをエクスポートします(これは純粋なLinuxショップです)。利点は明らかです。個々のサーバーは大量のローカルストレージを必要とせず、サーバーまたはサービスの移行が容易になります。 しかし、今では、保存されたデータのすべてまたはほとんどのバックアップソリューションが必要です。どうやってやるの?バックアップするデータがある各サーバーでバックアップソフトウェア(rsnapshotが好き)を実行していますか?そのデータはどこに置きますか?大量のローカルストレージを備えた専用のバックアップサーバー上にありますか?またはSANに戻りますか?SANをバックアップするための「一般的な」ソリューションがある場合、それは何ですか? SANを実行しているよりも多くの経験を持つ人々からのベストプラクティスとアドバイスを探しています。 ありがとう! 編集:SANの予算はそもそも非常に限られていることを考えると、私はバックアップの質問に対する非独占的で非常に一般的で安価なソリューションを探していると思います。とにかく、そのようなソリューションが存在する場合。テープや2つ目の同一のSANアレイにお金はかかりません。それをもっと明確にすべきでした、ごめんなさい。

2
SANをファイバーチャネルでHBAに直接接続できますか?
高可用性/共有ストレージが必要なため、私は自社初のSANの調達を進めています。ファイバーチャネルスイッチは非常に高価であり、冗長性を確保するには2つ必要で、ローエンドで約12000ドルかかることに気づきました。調査中のSAN(HP MSA 2040)には8つのファイバーチャネルポートが付属しており、合計6つ(ESXiサーバーごとに2つ* 3)しか必要ありません。 だから私の質問は: SANをサーバーHBAに直接接続して、スイッチをスキップできますか? すべてのサーバーからの直接接続を使用して、vMotionと高可用性を引き続き使用できますか?

6
VMware VMFS5とLUNのサイジング-複数の小さなデータストア、または1つの大きなデータストア?
VMFS5にはVMFSボリュームの2TBの制限がなくなったため、どのシナリオが全体的により有益になるかを検討しています:- より大きなサイズの少ないLUN、または 小さいサイズのより多くのLUN。 私の場合、600 GBのディスクを備えた新しい24ディスクストレージアレイを持っています。私はRAID10を使用するので、およそ7.2TBで、1つの大きな7TBデータストアを使用するか、それともそれぞれ1TBの複数のストアを使用するかを決定しようとしています。 各アプローチの長所と短所は何ですか? 更新:もちろん、計算にホットスペアを含めなかったため、7.2TB未満になりますが、一般的な考え方は同じです。:-) 更新 2:60個のVMと3個のホストがあります。私たちのVMはどれも、特にI / O集約型ではありません。それらのほとんどはWeb /アプリケーションサーバーであり、監視(munin / nagios)、最小負荷の2つのWindows DCなども含まれます。I / O要件が非常に低い場合を除いて、DBサーバーが仮想化されることはほとんどありません。現在、私が持っている唯一の仮想DBサーバーはMSSQLボックスであり、そのボックスのDBは1GB未満だと思います。 アップデート3:アレイとFC接続の詳細。アレイはIBM DS3524で、それぞれ2GBキャッシュを備えた2つのコントローラーです。コントローラあたり4x 8Gbit FCポート。各ESXiホストには2x 4Gbit FC HBAがあります。

1
ファイバーチャネルファブリック上のデバイスの正しい配置
ファイバーチャネルファブリック用の新しい8 Gbスイッチのペアを取得しています。プライマリデータセンターのポートが不足しているため、これは良いことであり、2つのデータセンター間で少なくとも1つの8Gb ISLを実行できるようになります。 2つのデータセンターは、ファイバーが走るときに約3.2 km離れています。私たちはここ数年、4Gbの安定したサービスを利用しており、8Gbも維持できることを期待しています。 私は現在、これらの新しいスイッチを受け入れるようにファブリックを再構成する方法を考えています。数年前のコスト決定により、完全に独立したダブルループファブリックは稼働していません。完全な冗長性のコストは、スイッチ障害のありそうもないダウンタイムよりも高価であると考えられていました。その決定は私の時間の前に行われ、それ以来、物事はあまり改善されていません。 この機会に、スイッチの障害(またはFabricOSのアップグレード)に備えてファブリックの回復力を高めたいと思います。 これが、レイアウトについて私が考えていることの図です。青色の項目は新しいもので、赤色の項目は(削除)される既存のリンクです。 (ソース:sysadmin1138.net) 赤い矢印の線は現在のISLスイッチリンクであり、両方のISLは同じスイッチからのものです。EVA6100は現在、ISLのある16/4スイッチの両方に接続されています。新しいスイッチにより、リモートDCに2つのスイッチを配置できるようになり、長距離ISLの1つが新しいスイッチに移動します。 これの利点は、各スイッチが別のスイッチから2ホップ以内であり、EVAレプリケーション関係にある2つのEVA4400が互いに1ホップであることです。グラフのEVA6100は古いデバイスであり、最終的にはおそらく別のEVA4400と交換される予定です。 グラフの下半分は、ほとんどのサーバーが配置されている場所であり、正確な配置についていくつか懸念があります。そこに入る必要があるもの: 10 VMWare ESX4.1ホスト EVA6100上のリソースにアクセスします 1つのフェールオーバークラスター(ファイルサーバークラスター)内の4つのWindows Server 2008サーバー EVA6100とリモートEVA4400の両方のリソースにアクセスします 2番目のフェールオーバークラスター内の2台のWindows Server 2008サーバー(Blackboardコンテンツ) EVA6100上のリソースにアクセスします 2つのMS-SQLデータベースサーバー EVA6400のリソースにアクセスし、夜間のDBエクスポートをEVA4400に送信 2つのLTO4テープドライブを備えた1つのLTO4テープライブラリ。各ドライブには独自のファイバーポートがあります。 (このリストに含まれていない)バックアップサーバーはそれらにスプールします 現時点では、ESXクラスターは、スペースのためにVMのシャットダウンを開始する必要がある前に、最大3つ、場合によっては4つのホストのダウンを許容できます。幸い、すべてでMPIOがオンになっています。 現在の4Gb ISLリンクは、私が気づいた飽和に近づいていません。これは、2つのEVA4400の複製によって変わる可能性がありますが、ISLの少なくとも1つは8Gbになります。EVA4400-Aから得られるパフォーマンスを見ると、レプリケーショントラフィックがあっても4Gbのラインを越えるのは難しいと確信しています。 4ノードのファイルサービスクラスターは、SAN1SW4に2つのノード、SAN1SW1に2つのノードを持つことができます。これにより、両方のストレージアレイが1ホップ離れます。 私がやや頭を悩ませている10個のESXノード。SAN1SW4に3つ、SAN1SW2に3つ、SAN1SW1に4つはオプションであり、レイアウトに関する他の意見を聞きたいと思います。これらのほとんどはデュアルポートFCカードを備えているため、いくつかのノードを二重に実行できます。それらのすべてではありませんが、すべてを殺すことなく単一のスイッチが失敗するのに十分です。 2つのMS-SQLボックスは、プライマリストレージに近い必要があり、db-exportパフォーマンスはそれほど重要ではないため、SAN1SW3およびSAN1SW2に配置する必要があります。 LTO4ドライブは現在、メインのストリーマーから2ホップと2ホップ上にあるので、どのように動作するかは既に知っています。これらはSW2とSW3に残すことができます。 グラフの下半分を完全に接続されたトポロジにしないでください。これにより、使用可能なポート数が66から62に減少し、SAN1SW1は25%ISLになります。しかし、それが強く推奨されている場合は、そのルートに進むことができます。 更新:おそらく役立ついくつかのパフォーマンスの数値。私はそれらを持っていました、私はそれらがこの種の問題に役立つと間隔をあけました。 上の図のEVA4400-Aは次のことを行います。 就業日中: ファイルサーバークラスターのShadowCopyスナップショット(平均約​​15〜30秒)の間に、I / Oオペレーションは平均で1000以下でスパイクは4500に急上昇します。 MB / sは通常10〜30MBの範囲にとどまり、ShadowCopies中に最大70MBおよび200MBのスパイクが発生します。 夜間(バックアップ)は、実際に速くペダルを踏むときです。 I / Oオペレーションの平均は約1500で、DBバックアップ中のスパイクは最大5500です。 MB …

10
5000ドル未満の費用対効果と質素なSANソリューション?
IOPSパフォーマンスとrawストレージ容量の両方にSANアクセスが必要な3〜4台のサーバーを用意します。限界は、コストです。私が見たソリューションは、9TB以上の場合、10,000ドル以上を実行しています。私が自分でビルドする場合、どのハードウェアをお勧めしますか、それが5000〜7000ドルの支出制限である場合、どのソフトウェアを使用する必要がありますか? すべてLinux環境になります。

4
ハードウェアRAID 6上のZFSストライプ。何が問題になる可能性がありますか?
36 * 4TB HDD SANラックを持っています。RAIDコントローラは、RAID60をサポートせず、1つのRAIDグループで16台以下のHDDをサポートしました。それで、16HDDの2つのRAID6グループまたは8つのHDDのうちの4つのHDDを作ることにしました。すべてのストレージを1つのパーティションとして取得したい。 それで、ハードウェアRAID6の上でzfsプールを使用する場合、何が問題になる可能性がありますか?ええ、ネイティブHDDまたはパススルーモードを使用することを強くお勧めします。しかし、私にはこのオプションはありません。 または、私はこの状況でZFSとソフトウェアRAIDから離れるべきですか?(私は主に圧縮とスナップショットに興味があります)

1
フェイルオーバークラスターでHBAを混在させる
2サーバーフェールオーバークラスターを使用していますが、さまざまな理由で、ハードウェアが一致していないためです。 1つはEmulex HBAがインストールされており、もう1つはQlogicです。 ボックス内でマルチパスを行うために、カードの2つの異なるメーカー/モデルを使用することについては、気が引けるでしょう。したがって、共有ストレージフェールオーバークラスターで実行するのは少し不快です。 これが悪い(または良い?)アイデアである特定の理由はありますか、それとも私は過度に心配していますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.