データセンターで、いくつかのVMware vSphere 5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境にNimble iSCSIアレイと、可能なTegile(ZFS)ハイブリッドアレイを導入する可能性があります。
現在のストレージソリューションは、Nexenta ZFSおよびLinux ZFSベースのアレイで、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッド上の2 x 10GbE LACPトランクと各ESXiホスト上の2 x 10GbEを介して提供されます。スイッチは、MLAGピアとして構成されたデュアルArista 7050S-52トップオブラックユニットです。
vSphere側では、2 x 10GbEアップリンクのLACPボンドで構成されたvSphere Distributed Switch(vDS)と、VMポートグループ、NFS、vMotion、および管理トラフィック用のネットワークI / Oコントロール(NIOC)配分共有を使用しています。
このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージの追加は私にとって大きな変化です。近い将来に備えて、NFSインフラストラクチャを保持する必要があります。
物理設計を変更せずに、iSCSIをこの環境に統合する方法を理解したいと思います。ToRスイッチのMLAGは私にとって非常に重要です。
- NFSベースのストレージの場合、LACPはパスの冗長性を提供する一般的に受け入れられている手段です。
- iSCSIの場合、LACPは通常推奨されません。MPIOマルチパス設計が推奨されるアプローチです。
- 私はどこでも10GbEを使用しており、各サーバーへのシンプルな2ポートリンクを保持したいと考えています。これは、ケーブル配線と設計の簡素化のためです。
上記を踏まえ、iSCSIソリューションを最大限に活用するにはどうすればよいですか?
- LACP上のiSCSIを構成しますか?
- vDSにVMkernel iSCSIアダプターを作成し、それらを個別のアップリンクにバインドして、何らかの変異MPIOを実現しようとしますか?
- さらにネットワークアダプターを追加しますか?