タグ付けされた質問 「lacp」

5
レイヤー3 LACP宛先アドレスハッシュはどの程度正確かつ具体的に機能しますか?
1年前の以前の質問(多重化された1 Gbpsイーサネット?)に基づいて、LACPリンクが至る所にある新しいISPで新しいラックをセットアップしました。これが必要なのは、インターネット全体で数千台のクライアントコンピューターにサービスを提供する個々のサーバー(1つのアプリケーション、1つのIP)が1 Gbpsを超えるためです。 このLACPのアイデアは、10GoEスイッチとNICに大金を費やすことなく、1Gbpsの障壁を打破できると考えられています。残念ながら、アウトバウンドトラフィックの配信に関する問題に遭遇しました。(これは、上記のリンクされた質問でケビン・クファールの警告にもかかわらず。) ISPのルーターは、ある種のシスコです。(これはMACアドレスから推測しました。)私のスイッチはHP ProCurve 2510G-24です。サーバーは、Debian Lennyを実行しているHP DL 380 G5です。1台のサーバーはホットスタンバイです。アプリケーションをクラスター化することはできません。これは、IP、MAC、およびインターフェイスを備えたすべてのレレバンネットワークノードを含む簡略化されたネットワーク図です。 それはすべての詳細を持っていますが、私の問題を扱い、説明するのは少し難しいです。したがって、簡単にするために、ノードと物理リンクに縮小されたネットワーク図を示します。 そこで、私は出発してキットを新しいラックに取り付け、ISPのケーブルをルーターから接続しました。両方のサーバーにスイッチへのLACPリンクがあり、スイッチにはISPルーターへのLACPリンクがあります。最初から、LACP構成が正しくないことに気付きました。テストでは、各サーバーとの間のすべてのトラフィックが、サーバーからスイッチとスイッチからルーターの両方の間で1つの物理GoEリンクを通過しました。 いくつかのグーグル検索とLinux NICボンディングに関する多くのRTMF時間により、修正によりNICボンディングを制御できることを発見しました。 /etc/modules # /etc/modules: kernel modules to load at boot time. # mode=4 is for lacp # xmit_hash_policy=1 means to use layer3+4(TCP/IP src/dst) & not default layer2 bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=1 loop これにより、予想どおり、両方のNICを介してサーバーを出るトラフィックが取得されました。しかし、トラフィックは、1つの物理リンクのみでスイッチからルーターに移動していました。 両方の物理リンクを経由するトラフィックが必要です。2510G-24の管理および構成ガイドを読んで再読したところ、次のことがわかりました。 [LACPは、発信リンクを介してアウトバウンドトラフィックを配信するために、ソース/宛先アドレスペア(SA …

2
VMware Distributed vSwitches(VDS)-設計、理論、*実際の*ユースケースおよび例?
既存および新規インストールで使用するためのVMware分散スイッチ(dvSwitchまたはVDS)の調査を開始しています。Enterprise Plusライセンスを使用してVMwareバージョン5.1以降を想定します。これに先立ち、適切なタイプの物理アップリンク(1GbEまたは10GbE)で定義され、個々のホストで独立して管理されている標準vSwitchを十分に活用しました。 分散スイッチを使用すると、基本的にどのように役立ちますか?インターネットで説明されている他のインストールとセットアップを調べてみると、仮想管理ネットワークまたはVMkernelインターフェイスが標準スイッチに残っており、VMトラフィックが分散スイッチに送られている状況が多く見られます。ハイブリッドモデル。分散スイッチを完全に回避するための推奨事項を見たこともあります!しかし、何よりも、私がオンラインで見つけた情報は時代遅れのようです。既存のサーバーの1つを変換しようとする弱い試みで、管理インターフェイスをどこで定義する必要があるのか​​わからず、これを解決する方法に関する適切な答えを見つけることができませんでした。 だから、ここでのベストプラクティスは何ですか?標準スイッチと分散スイッチの組み合わせを使用するには?それとも、これは良いマインドシェアを持つテクノロジーではないのですか?VDS にLACP機能が最近組み込まれたことにより、これはどのように色付けされましたか? 以下に、実際の新規インストールのシナリオを示します。 ESXiホスト(4または6ホスト)として機能する6 x 1GbEインターフェイスを備えたHP ProLiant DL360 G7サーバー。 4メンバースタックスイッチソリューション(Cisco 3750、HP ProCurveまたはExtreme)。 EMC VNX 5500によってサポートされるNFS仮想マシンストレージ。 このセットアップを構築する最もクリーンで最も復元力のある方法は何ですか?分散スイッチを使用し、おそらくLACPを組み込むように頼まれました。 6つのアップリンクすべてを1つの分散スイッチに投入し、異なる物理スイッチスタックメンバーでLACPを実行しますか? 2つのアップリンクを管理用の標準vSwitchに関連付け、VMトラフィック、vMotion、NFSストレージなどの4アップリンクLACP接続分散スイッチを実行しますか? ??? 利益。

1
FreeBSDリンク集約は単一リンクよりも速くありません
我々は、4ポート置くインテルI340-T4のFreeBSD 9.3サーバにNICを1とするために構成されたリンクアグリゲーションでLACPモード -2-にマスタ・ファイル・サーバからのデータの16のTiBにはミラー8に要する時間を短縮しようとして並行して4つのクローン。最大で4ギガビット/秒の総帯域幅が得られると期待していましたが、何を試しても、1ギガビット/秒の総帯域幅より速くなることはありません。2 iperf3静止LANでこれをテストするために使用しています。3最初のインスタンスは予想どおりほぼギガビットに達しますが、2番目のインスタンスを並行して開始すると、2つのクライアントの速度が約½ギガビット/秒に低下します。3番目のクライアントを追加すると、3つすべてのクライアントの速度が〜⅓Gbit /秒に低下します。 iperf34つのテストクライアントすべてからのトラフィックが、異なるポートの中央スイッチに入るようにテストを設定しました。 各テストマシンにはラックスイッチへの独立したパスがあり、ファイルサーバー、そのNIC、およびスイッチにはすべて、lagg0グループを分割してそれぞれに個別のIPアドレスを割り当てることでこれを実現する帯域幅があることを確認しましたこのIntelネットワークカードの4つのインターフェイスのうち。その構成では、4ギガビット/秒の総帯域幅を実現しました。 この道を歩み始めたとき、私たちは古いSMC8024L2管理スイッチでこれを行っていました。(PDFデータシート、1.3 MB。)それは当時の最高のスイッチではありませんでしたが、これを行うことができるはずです。スイッチは古くなっているため故障しているのではないかと考えましたが、はるかに高性能なHP 2530-24Gにアップグレードしても症状は変わりませんでした。 HP 2530-24Gスイッチは、問題の4つのポートが実際に動的LACPトランクとして構成されていると主張しています。 # show trunks Load Balancing Method: L3-based (default) Port | Name Type | Group Type ---- + -------------------------------- --------- + ----- -------- 1 | Bart trunk 1 100/1000T | Dyn1 LACP 3 | Bart trunk 2 100/1000T | …

3
リンク集約(LACP / 802.3ad)最大スループット
Linuxでのボンディングされたインターフェースに関していくつかの混乱した動作が見られます。誰かが私のためにそれを片付けてくれることを期待して、状況をそこに捨てたいと思います。 2台のサーバーがあります。サーバー1(S1)には4つの1ギガビットイーサネット接続があります。サーバー2(S2)には、2つの1ギガビットイーサネット接続があります。カーネル3.11.0-15(lts-saucy linux-genericパッケージから)を使用していますが、どちらのサーバーもUbuntu 12.04を実行しています。 両方のサーバーには、それぞれのネットワークインターフェイスがすべて、次の構成(単一の)で単一のbond0インターフェイスにバンドルされています/etc/network/interfaces。 bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] サーバー間には、問題のポートでLACP用に正しく構成されている(私が思う)いくつかのHPスイッチがあります。 これでリンクが機能します。ネットワークトラフィックは両方のマシンとの間でスムーズに送受信されます。そして、それぞれのインターフェースがすべて使用されているため、集約が完全に失敗しているわけではありません。ただし、これらの2つのサーバー間で可能な限り多くの帯域幅が必要であり、期待する最大2Gbit / sが得られません。 私のテストでは、各サーバーが各TCP接続(iperf、scp、nfsなど)を単一のスレーブインターフェイスに割り当てているように見えます。基本的に、すべてが最大1ギガビットで制限されているようです。 を設定するとbond-xmit-hash-policy layer3+4、iperf -c S1 -P22つのスレーブインターフェースでの送信に使用できますが、サーバー側では、まだ1つのスレーブインターフェースでのみ受信が行われているため、合計スループットは1Gbit / sに制限されます。つまり、クライアントは〜40-50MB / sを示します2つのスレーブインターフェイスでは、サーバーは1つのスレーブインターフェイスで最大100MB / sを示します。bond-xmit-hash-policy送信を設定しないと、スレーブインターフェースも1つに制限されます。 LACPはこの種の接続バンドリングを許可し、たとえば、単一のscp転送が2つのホスト間で利用可能なすべてのインターフェースを利用できるようにするべきだという印象を受けました。 LACPについての私の理解は間違っていますか?または、どこかにいくつかの設定オプションを見逃しましたか?調査のための提案や手がかりは大歓迎です!
10 linux  bonding  lacp 

1
10GbE VMware分散スイッチのiSCSI設計オプションはありますか?MPIOとLACP
データセンターで、いくつかのVMware vSphere 5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境にNimble iSCSIアレイと、可能なTegile(ZFS)ハイブリッドアレイを導入する可能性があります。 現在のストレージソリューションは、Nexenta ZFSおよびLinux ZFSベースのアレイで、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッド上の2 x 10GbE LACPトランクと各ESXiホスト上の2 x 10GbEを介して提供されます。スイッチは、MLAGピアとして構成されたデュアルArista 7050S-52トップオブラックユニットです。 vSphere側では、2 x 10GbEアップリンクのLACPボンドで構成されたvSphere Distributed Switch(vDS)と、VMポートグループ、NFS、vMotion、および管理トラフィック用のネットワークI / Oコントロール(NIOC)配分共有を使用しています。 このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージの追加は私にとって大きな変化です。近い将来に備えて、NFSインフラストラクチャを保持する必要があります。 物理設計を変更せずに、iSCSIをこの環境に統合する方法を理解したいと思います。ToRスイッチのMLAGは私にとって非常に重要です。 NFSベースのストレージの場合、LACPはパスの冗長性を提供する一般的に受け入れられている手段です。 iSCSIの場合、LACPは通常推奨されません。MPIOマルチパス設計が推奨されるアプローチです。 私はどこでも10GbEを使用しており、各サーバーへのシンプルな2ポートリンクを保持したいと考えています。これは、ケーブル配線と設計の簡素化のためです。 上記を踏まえ、iSCSIソリューションを最大限に活用するにはどうすればよいですか? LACP上のiSCSIを構成しますか? vDSにVMkernel iSCSIアダプターを作成し、それらを個別のアップリンクにバインドして、何らかの変異MPIOを実現しようとしますか? さらにネットワークアダプターを追加しますか?

6
複数のスイッチ上の単一のLACPチャネルは冗長性を高めますか?
LACPを使用して複数のスイッチのポートに複数のインターフェイスを結合すると冗長性が向上するという意見、調査結果、または証拠に興味があります。以前に結合されたインターフェースは、常に単一のスイッチであり、別のポートへの冗長チャネルがあります。 ベンダーの詳細に触れずに、これは単一のLACPであるため、イベントまたは変更が広範囲にわたるサービス停止につながる可能性があると私は考えています。多様なスイッチでこの単一チャネルをテストするための予備の機器または時間がないと、私よりもネットワークの知識が豊富な人なら誰でも、結合されたインターフェイスを作成したサーバーへのネットワーク接続を停止させるネットワーク側のイベントがあるかどうかを教えてください別のスイッチの2つのポートに? サーバーから複数のスイッチ(使用できることをお勧めします)全体でボンディングされたイーサネットチャネルを使用すると、スループットが向上し(疑いなく)、冗長性が向上します(不確実)。スイッチの障害、ポートの移行、パッチの適用、回復などのネットワークイベントにより、両方のサーバーネットワークインターフェイスのチャネルが使用できなくなる可能性がありますか? 前もって感謝します。

3
Linuxのbalance-rr(ボンドモード= 0)はすべてのスイッチで動作しますか?
帯域幅を2倍にするために2つのイーサネットインターフェイスを集約グループに構成していますが、すべてのスイッチでbond mode = 0が機能するかどうか疑問に思っていましたか?LACPをサポートしないダムスイッチについてはどうですか?この方法では、単一のホスト(「セッション」)の帯域幅が2倍になりますか?

1
レイヤー2ループの回避:3つのスイッチの直列
これは宿題の質問のように思えますが、実際には大規模なプロジェクト(およびネットワーク)の一部であり、それをチャンクに分解する必要があるため、自分が何をしているかを明確にしています。[R / M] STPを使用したことがなく、静的LAGをセットアップしただけなので、ここで何が必要かわからない。 VLANタグ付けにより、すべて同じブロードキャストドメイン内に3つのスイッチがあり、LAGグループごとに2 x銅ギガビットイーサネットで構成されるLAGグループによって相互接続されています。 これらのスイッチがLAG / LACP / * STP / 802.1q VLANタギングをサポートすると想定します。比較のために、ここではベンダー独自の拡張機能を最小限に抑えようとしていますが、ベンダーに「再バッジ」されたオープンスタンダードがある、または言及する価値がある場合は、遠慮なくそうしてください。 目標は次のとおりです。 BおよびCを介してスイッチAに冗長アップリンクを設定する 両方のアップリンク全体でロードバランシング/増加した帯域幅を持つこと(可能な場合、つまり、4 x GbE LAGグループまたは2 x 2 GbE LAGグループが "アクティブ/パッシブ"である場合) 私が確信していないことは: これが私がこのループが機能する方法だと思います:マシンA1(スイッチA)に属する1.2.3.4を探すマシンB1(スイッチB)からのA​​RPリクエストは、A-to-BとAの両方からスイッチAに到着します-to-Cアップリンク。スイッチAは(私が想定しているように)直接B-to-A LAGアップリンクを介して最初にブロードキャストを受信しますが、両方のアップリンクLAGポートから応答を返します(つまり、LAG A-to-Bはポート1/2およびLAGです) A-to-Cはポート23/24)であり、スイッチBを非常に混乱させます。このループの解釈方法は正しいですか? #1が確かにループであるという私の主張の場合、* STPが必要です。私が読んだことから、STPは古くて遅いです。RSTPの方がはるかに高速です(最大のネットワークを除くすべてのネットワークで問題になる可能性がありますか?Intarwebが言っているようです)。次に、MSTPがあり、混乱を招きました。複数のVLANに対して複数のSTPグループを許可しているようですが、1つのVLAN(2)だけを扱っているとすると、これは必要ですか。3つのスイッチすべてを通過する2番目のVLANを追加した場合はどうなりますか? M-LAG(それが呼ばれていると思います)が複数のスイッチにまたがるLAGを許可すると確信していますが、これがスイッチAのA-を構成する4つのイーサネット接続を含むLAGであるかどうかは不明ですto-B(2)およびA-to-C(2)アップリンク? LACPは「動的」であり、負荷分散アルゴリズムに基づいてブロードキャスト/ユニキャストトラフィックを転送するアップリンクを「知っている」ため、LACPが* STPの必要性を排除することをどこかでフォーラムで読みました(どこで思い出せません)。だれかが後でそうではないことを訴えた。 これを要約すると、LAG / LACP / * STPの頭字語のスープと私のトポロジーを考えると、ここで高レベルで何をすべきですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.