3
ESXiとVNXeの間で1ギガビットiSCSIの制限を破る方法
iSCSIネットワークで大きな問題が発生しており、可能な限り高速に動作しないようです。 そのため、VMwareとEMCの専門家を巻き込んで、SANのパフォーマンスを最大限に引き出すために、ほぼすべてを試しました。 私のギアの簡単な説明:3x HP DL360 G7 / vSphere 5.5 / 4オンボードNIC / iSCSI用4 PCIe Intel NIC 2x HP 2510-24G 1x EMC VNXe 3100/2 xストレージ専用プロセッサー、2 x iSCSI専用NIC / 24x 15k SAS RAID10 / 6x 7.2k SAS RAID6 ベストプラクティスを実施し、ストレージプールを両方のiSCSIサーバーに均等に配置しました。各ストレージプロセッサに1つずつ、2つのiSCSIサーバーを作成しました。iSCSI構成の画像をご覧ください。 iSCSIトラフィックはVLANを介して分離されます(他のVLANには設定できません)。29xxシリーズの別のHPスイッチでも試してみました。フロー制御が有効になっている(無効にしようとした)が、ジャンボが無効になっています。関連するルーティングはありません。 ESXホストでは、すべてのデータストアにラウンドロビン設定を使用したため、すべてのiSCSI NICが使用されています。他の多くの人がそのようにパフォーマンスを上げているように見えるので、私はまた1 IOのパス変更ポリシーでそれを試しました。内蔵NIC(Broadcom)も試しましたが、違いはありません。スイッチでは、ESX側とVNXe側のポートが非常に均等に使用されていることがわかります。しかし、完璧な負荷分散を行っていますが、合計で1ギガビットを超えることはできません。VNXeは複数の接続用に最適化されており、ラウンドロビンにもそれが必要であることを理解していますが、2つのホストと2つのデータストア間でストレージvMotionを実行しても(異なるiSCSIサーバーを使用)、約84 MBit / s Unisphere Webインターフェイス経由。私は自分のディスクが信じられないほど正確に同じ値でその行を頻繁に見ることができます より多くを提供するか、タスクが十分に要求されていません。さらに良くなっています。各ホストと各ストレージプロセッサにケーブルが1本しかないため、同じパフォーマンスを実現できます。だから、私は多くの冗長性を手に入れましたが、余分な速度はまったくありませんでした。 iSCSIのパフォーマンスについて多くの人が話しているのを見てきたので、(VMwareおよびEMCの訓練を受けた人によってテストおよび検証された)私の構成の何が問題なのかを見つけることを切望しています。私はすべての意見に感謝しています! 編集: はい、複数のNICを使用するようにvMotionを構成しました。そのストレージに加えて、vMotionは常にvMotionアダプターではなくiSCSIアダプターを通過します。構成のスクリーンショットを添付しました。 …