10GbE VMware分散スイッチのiSCSI設計オプションはありますか?MPIOとLACP


9

データセンターで、いくつかのVMware vSphere 5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境にNimble iSCSIアレイと、可能なTegile(ZFS)ハイブリッドアレイを導入する可能性があります。

現在のストレージソリューションは、Nexenta ZFSおよびLinux ZFSベースのアレイで、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッド上の2 x 10GbE LACPトランクと各ESXiホスト上の2 x 10GbEを介して提供されます。スイッチは、MLAGピアとして構成されたデュアルArista 7050S-52トップオブラックユニットです。

vSphere側では、2 x 10GbEアップリンクのLACPボンドで構成されたvSphere Distributed Switch(vDS)と、VMポートグループ、NFS、vMotion、および管理トラフィック用のネットワークI / Oコントロール(NIOC)配分共有を使用しています。

ここに画像の説明を入力してください

このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージの追加は私にとって大きな変化です。近い将来に備えて、NFSインフラストラクチャを保持する必要があります。

物理設計を変更せずに、iSCSIをこの環境に統合する方法を理解したいと思います。ToRスイッチのMLAGは私にとって非常に重要です。

  • NFSベースのストレージの場合、LACPはパスの冗長性を提供する一般的に受け入れられている手段です。
  • iSCSIの場合、LACPは通常推奨されません。MPIOマルチパス設計が推奨されるアプローチです。
  • 私はどこでも10GbEを使用しており、各サーバーへのシンプルな2ポートリンクを保持したいと考えています。これは、ケーブル配線と設計の簡素化のためです。

上記を踏まえ、iSCSIソリューションを最大限に活用するにはどうすればよいですか?

  • LACP上のiSCSIを構成しますか?
  • vDSにVMkernel iSCSIアダプターを作成し、それらを個別のアップリンクにバインドして、何らかの変異MPIOを実現しようとしますか?
  • さらにネットワークアダプターを追加しますか?

回答:


1

LACPを介してiSCSIを実行することはお勧めしません。基本的なリンクの冗長性を超えるメリットは実際にはないからです。

ソフトウェアiSCSI HBAを使用してvDSでiSCSI用のVMkernelスイッチを作成することは、まさにあなたがすべきことです。これにより、真のMPIOが得られます。このブログの投稿は、標準スイッチからの移行の必要性を無視して、あなたがやろうとしていることにいくらか関連があるようです:https : //itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from-標準スイッチから分散スイッチへ/

iSCSI用にすでに2つある場合は、ネットワークアダプターを追加する必要はありません。ただし、iSCSIネットワークでジャンボフレーム(MTU 9000)を有効にすることをお勧めします。これは、VMkernel、vDS、物理スイッチ、SANアプライアンスなど、ネットワークのすべてのレベルで設定する必要があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.