タグ付けされた質問 「bonding」

「結合」は、リンク集約のLinux用語です。

6
ギガビットボンドが150 MB / s以上のスループットを提供しないのはなぜですか?
2つの異なるPCIeアダプターに2つのPowerEdge 6950クロスオーバーを(直線を使用して)直接接続しました。 これらの各回線(1000 MBit、全二重、両方向のフロー制御)でギガビットリンクを取得します。 今、私は両側のrrアルゴリズムを使用してこれらのインターフェイスをbond0に結合しようとしています(単一のIPセッションで2000 MBitを取得したい)。 tddモードでdd bs = 1Mとnetcatを使用して/ dev / zeroを/ dev / nullに転送してスループットをテストすると、予想通り150 MB / sを超える-70 MB / sのスループットが得られます。 単一の回線を使用する場合、各回線で異なる方向を使用すると、各回線で約98 MB /秒になります。単一の回線を使用する場合、トラフィックが「同じ」方向に進むと、回線で70 MB /秒と90 MB /秒になります。 bonding-readme(/usr/src/linux/Documentation/networking/bonding.txt)を読んだ後、次のセクションが有用であることがわかりました:(13.1.1シングルスイッチトポロジのMTボンディングモードの選択) balance-rr:このモードは、単一のTCP / IP接続が複数のインターフェースにトラフィックをストライプ化することを許可する唯一のモードです。したがって、単一のTCP / IPストリームが複数のインターフェイスの価値のあるスループットを利用できるようにする唯一のモードです。ただし、これにはコストがかかります。ストライピングにより、多くの場合、セグメントを再送信することにより、ピアシステムがパケットの順序を乱し、TCP / IPの輻輳制御システムが作動します。 It is possible to adjust TCP/IP's congestion limits by altering the net.ipv4.tcp_reordering sysctl …
17 linux  bonding  sles10 

4
Linuxボックスから同じスイッチに接続されているNICを識別する方法は?
初期設定 Linux管理者として、6つのNIC eth0〜eth5を備えた新しいLinuxボックスをインストールしました。eth0インターフェースは正しく構成されており、他のすべてのインターフェースは現在稼働していますが、IPアドレスはありません。ネットワーク担当者は、このボックスに4本のケーブルを接続するだけです。2本のLANケーブルを使用してボックスを実稼働ネットワークに接続し、2本を使用してボックスをプライベートネットワークに接続します。eth0が実稼働ネットに接続されていることだけを知っています。ただし、サーバーの世代が異なるため、および/またはネットワーク担当者が接続に間違ったNICを使用するため、同じスイッチに接続されている他のNICがわかりません。 手元のタスク このセットアップはインフラストラクチャにとって一般的なものであるため、ボンディングインターフェイスの構成を自動化する必要があります。これで、どのNICがまったく接続されていないか、どのNICが同じスイッチにリンクされているかを検出して、結合できるようになりました。Linuxボックスにのみアクセスでき、スイッチを照会できません。 アイデア リンクステータスの検出は簡単です。 ethtool $device | grep 'Link detected' | cut -d ':' -f 2 しかし、同じスイッチに接続されているデバイスをどのように一致させるのでしょうか? HP-UXには、その目的のためにlinkloop [1] と呼ばれるツールがあります。公式のLinuxツールがありません(古いSourceForceプロジェクトがあります)。 すでに私の頭に浮かんだ解決策は次のとおりです。 tcpdumpですべてのインターフェイスをリッスンします。ICMP(ブロードキャスト)パケットを作成して送信します。そのパケットを見るインターフェースは同じスイッチに接続する必要があります。->そのために使用できるシンプルなツールの提案が必要です。スクリプトにはプレーンシェルコマンドまたはPythonを使用したいと思います。 簡単なプロトコル(HTTP?)を介して外部のボックスと通信して、応答があるかどうかを確認してください。->エラーが発生しやすく、外部ボックスに依存しています。 このタスクを解決する方法について、さらにアイデアや提案がありますか? すべてのコメントを事前にありがとうございます! [1] http://linux.die.net/man/1/linkloop

3
RHEL 6.4:モード1のチャネルボンディングがフェールオーバーしない
2つのオンボードBroadcom NetXtreme II BCM5708 1000Base-T NICを搭載したHP ML 350 G5でRHEL 6.4、kernel-2.6.32-358.el6.i686を実行しています。私の目標は、2つのインターフェイスをmode=1フェールオーバーペアにチャネルボンディングすることです。 私の問題は、ボンドがセットアップされて受け入れられるというすべての証拠にもかかわらず、プライマリNICからケーブルを引き出すと、すべての通信が停止することです。 ifcfg-ethoおよびifcfg-eth1 まず、ifcfg-eth0: DEVICE=eth0 HWADDR=00:22:64:F8:EF:60 TYPE=Ethernet UUID=99ea681d-831b-42a7-81be-02f71d1f7aa0 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes 次に、ifcfg-eth1: DEVICE=eth1 HWADDR=00:22:64:F8:EF:62 TYPE=Ethernet UUID=92d46872-eb4a-4eef-bea5-825e914a5ad6 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes ifcfg-bond0 私の結合の設定ファイル: DEVICE=bond0 IPADDR=192.168.11.222 GATEWAY=192.168.11.1 NETMASK=255.255.255.0 DNS1=192.168.11.1 ONBOOT=yes BOOTPROTO=none USERCTL=no BONDING_OPTS="mode=1 miimmon=100" /etc/modprobe.d/bonding.conf この/etc/modprobe.d/bonding.confように読み込まれたファイルがあります: alias bond0 bonding ip …
11 linux  redhat  rhel6  bonding 

16
DSL回線2本…何か利点はありますか?
私はオフィスにVerizon DSLを持ち、約1年前に29.95ドルでDSLを入れました...最近新しい電話回線を追加しましたが、実際にDSLにバンドルする方が安くなったので、DSL回線が2つになりました...私の計画は、1年契約が成立したときに(9月に)最初の契約を締め切ることでした。 DSLが1行で2、3回出たので、もう1行を使用しました。これは冗長性としてはうれしいことですが、それほど頻繁には起こりません。(私は1つの行を外し、他の行に接続しました) 質問は、両方のDSL回線を一緒に使用する方法はありますか? 帯域幅を増やし、実効速度を上げることができます(可能ですか?) ネットワーク上のトラフィックがどちらか一方を使用するようにそれらを両方ともオンにして接続し、一方がダウンした場合、トラフィックは自動的にルーティングされますか? 2つにすることで速度を上げることができるか、少なくとも自動冗長性を得ることができる場合、両方をオンにする理由はありません....
11 bonding  dsl 

1
FreeBSDリンク集約は単一リンクよりも速くありません
我々は、4ポート置くインテルI340-T4のFreeBSD 9.3サーバにNICを1とするために構成されたリンクアグリゲーションでLACPモード -2-にマスタ・ファイル・サーバからのデータの16のTiBにはミラー8に要する時間を短縮しようとして並行して4つのクローン。最大で4ギガビット/秒の総帯域幅が得られると期待していましたが、何を試しても、1ギガビット/秒の総帯域幅より速くなることはありません。2 iperf3静止LANでこれをテストするために使用しています。3最初のインスタンスは予想どおりほぼギガビットに達しますが、2番目のインスタンスを並行して開始すると、2つのクライアントの速度が約½ギガビット/秒に低下します。3番目のクライアントを追加すると、3つすべてのクライアントの速度が〜⅓Gbit /秒に低下します。 iperf34つのテストクライアントすべてからのトラフィックが、異なるポートの中央スイッチに入るようにテストを設定しました。 各テストマシンにはラックスイッチへの独立したパスがあり、ファイルサーバー、そのNIC、およびスイッチにはすべて、lagg0グループを分割してそれぞれに個別のIPアドレスを割り当てることでこれを実現する帯域幅があることを確認しましたこのIntelネットワークカードの4つのインターフェイスのうち。その構成では、4ギガビット/秒の総帯域幅を実現しました。 この道を歩み始めたとき、私たちは古いSMC8024L2管理スイッチでこれを行っていました。(PDFデータシート、1.3 MB。)それは当時の最高のスイッチではありませんでしたが、これを行うことができるはずです。スイッチは古くなっているため故障しているのではないかと考えましたが、はるかに高性能なHP 2530-24Gにアップグレードしても症状は変わりませんでした。 HP 2530-24Gスイッチは、問題の4つのポートが実際に動的LACPトランクとして構成されていると主張しています。 # show trunks Load Balancing Method: L3-based (default) Port | Name Type | Group Type ---- + -------------------------------- --------- + ----- -------- 1 | Bart trunk 1 100/1000T | Dyn1 LACP 3 | Bart trunk 2 100/1000T | …

3
リンク集約(LACP / 802.3ad)最大スループット
Linuxでのボンディングされたインターフェースに関していくつかの混乱した動作が見られます。誰かが私のためにそれを片付けてくれることを期待して、状況をそこに捨てたいと思います。 2台のサーバーがあります。サーバー1(S1)には4つの1ギガビットイーサネット接続があります。サーバー2(S2)には、2つの1ギガビットイーサネット接続があります。カーネル3.11.0-15(lts-saucy linux-genericパッケージから)を使用していますが、どちらのサーバーもUbuntu 12.04を実行しています。 両方のサーバーには、それぞれのネットワークインターフェイスがすべて、次の構成(単一の)で単一のbond0インターフェイスにバンドルされています/etc/network/interfaces。 bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] サーバー間には、問題のポートでLACP用に正しく構成されている(私が思う)いくつかのHPスイッチがあります。 これでリンクが機能します。ネットワークトラフィックは両方のマシンとの間でスムーズに送受信されます。そして、それぞれのインターフェースがすべて使用されているため、集約が完全に失敗しているわけではありません。ただし、これらの2つのサーバー間で可能な限り多くの帯域幅が必要であり、期待する最大2Gbit / sが得られません。 私のテストでは、各サーバーが各TCP接続(iperf、scp、nfsなど)を単一のスレーブインターフェイスに割り当てているように見えます。基本的に、すべてが最大1ギガビットで制限されているようです。 を設定するとbond-xmit-hash-policy layer3+4、iperf -c S1 -P22つのスレーブインターフェースでの送信に使用できますが、サーバー側では、まだ1つのスレーブインターフェースでのみ受信が行われているため、合計スループットは1Gbit / sに制限されます。つまり、クライアントは〜40-50MB / sを示します2つのスレーブインターフェイスでは、サーバーは1つのスレーブインターフェイスで最大100MB / sを示します。bond-xmit-hash-policy送信を設定しないと、スレーブインターフェースも1つに制限されます。 LACPはこの種の接続バンドリングを許可し、たとえば、単一のscp転送が2つのホスト間で利用可能なすべてのインターフェースを利用できるようにするべきだという印象を受けました。 LACPについての私の理解は間違っていますか?または、どこかにいくつかの設定オプションを見逃しましたか?調査のための提案や手がかりは大歓迎です!
10 linux  bonding  lacp 

2
論理インターフェイスでMTUを設定すると、物理インターフェイスに影響しますか
私は、domonを拡張するための冗長性とさまざまな論理ネットワークレイヤーを提供するために、インターフェースボンド、vlan、およびブリッジインターフェースの組み合わせを使用してきました。 この設定はうまく機能していますが、これらのインターフェースの異なる設定が相互にどのように影響するかについては、少し不確かです。説明のために、典型的なdom0でのセットアップを以下に示します。 /- vlan10 -- br10 eth0 -\ / > bond0 <--- vlan20 -- br20 eth1 -/ \ \- vlan30 -- br30 bond-、vlan-、およびbridge-interfacesは物理的ではなく論理的であると考えると、物理(eth0、eth1)インターフェイスに異なるMTUセットがある場合、これらのインターフェイスにMTUを設定しても効果がありますか?

4
異なるメディア間の複数WANボンディング
私は最近、Viprinetが提供する製品についてもう一度考えています。基本的に、データセンターにある1組のルーターと、VPNマルチチャネルハブとオンサイトハードウェア、 VPNマルチチャネルルーターがあります。 また、3G、UMTS、イーサネット、ADSL、ISDNアダプター用のインターフェースカード(HWICなど)も多数用意されています。 彼らの主な趣味は、異なるメディア間で結合しているようです。それは私がいくつかのプロジェクトで本当に使用したいものですが、それらの価格は本当に非常に極端で、ハブは約1〜2k、ルーターは2〜6k、そしてインターフェイスモジュールはそれぞれ200〜600です。 だから、私が知りたいのは、28xxまたは18xxシリーズの在庫のCiscoルーターをいくつか使用して、同様のことを実行し、基本的にはさまざまなWANポートの束を接続することは可能ですが、すべてを1つにきちんと表示することです。 WANインターフェースの1つに障害が発生した場合のシームレスな(またはほぼ)フェイルオーバーにより、インターネットに戻ります。 基本的に、3x 3Gをイーサネットモデムに接続し、それぞれを別のネットワークに接続している場合、Viprinetに特権を支払わなくても、それらすべてに負荷分散/結合できるようにしたいと考えています。 標準のプロトコル(またはベンダー固有のプロトコル)に基づいて自分で何かを構成する方法を誰かが知っていますが、実際にはViprinetハードウェアを購入する必要はありませんか?

3
Linuxのbalance-rr(ボンドモード= 0)はすべてのスイッチで動作しますか?
帯域幅を2倍にするために2つのイーサネットインターフェイスを集約グループに構成していますが、すべてのスイッチでbond mode = 0が機能するかどうか疑問に思っていましたか?LACPをサポートしないダムスイッチについてはどうですか?この方法では、単一のホスト(「セッション」)の帯域幅が2倍になりますか?

4
Linuxでのスレーブインターフェースのボンディングのステータスをどのように監視しますか?
2つのインターフェースをボンディングスレーブとして設定しました(eth0とeth1はbond0としてボンディング)。人々は奴隷の状態をどのように監視していますか? 1つのインターフェースでリンクが失敗した場合、どのように通知されますか?/ sys / class / net / bond0または/ proc / net / bonding / bond0で何かをポーリングしますか?通知を受け取るように構成できるデーモンはありますか? いくつかのコンテキスト:私はSUSE 11サーバーSP1を実行していますが、このサーバーはX11を実行していないため、グラフィカルツールには興味がありません。

3
Procurveスイッチのサーバーからスイッチへのトランキング、これはどういう意味ですか?
新しいデータセンター環境でスイッチの冗長性を設定したいと考えています。IEEE 802.3adは、少なくともリンクアグリゲーションの「単一スイッチ」の制限を回避するテクノロジーと組み合わせると、これに関する主要な概念のようです。パンフレットを見て、曲線の切り替えを探します。 サーバーからスイッチへの分散トランキング。これにより、サーバーは1つの論理トランクで2つのスイッチに接続できます。耐障害性を高め、仮想化されたデータセンターでの負荷分散を可能にします http://www.procurve.com/docs/products/brochures/5400_3500%20Product%20Brochure4AA0-4236ENW.pdf これが802.3a標準にどのように関係するのかを理解しようとしています。これは、私が欲しいものを与えるようです(1つのサーバーには2つのNICがあり、それぞれが個別のスイッチに接続され、一緒に単一の論理NICを形成します)私たちが望む幸せな冗長性を提供します)、しかし私はこの概念に精通していてそれに追加できる誰かを探していると思います。

4
複数のスイッチ間のリンクボンディング?
nicsとifenslaveの結合について少し読んだ。2つのスイッチ間でボンドを分割するために特別な構成が必要かどうかを理解できません。たとえば、それぞれに2つのNICと2つの個別のスイッチがある複数のサーバーがある場合、ボンドを構成し、それぞれから1つのNICをスイッチ#1に接続し、もう1つをそれぞれからスイッチ#2に接続しますか?それともそれ以上のものですか? ボンドがアクティブバックアップである場合、単一のマシンのNIC障害は、残りのマシンがプライマリNICを使用し、セカンダリが使用しているため、サーバーが切断される可能性があることを意味しますか?または、スイッチも1本のケーブルでリンクしていますか?

3
Linuxのチャネルボンディングモードの違いは何ですか?
Linuxでは、複数のネットワークインターフェースを「結合された」ネットワークインターフェースに組み合わせて、フェイルオーバーを提供できます。 ただし、いくつかのモードがあり、そのうちのいくつかはスイッチのサポートを必要としません。どのモードでも使用できるという点で、スイッチに制約はありません。 ただし、さまざまなモードについて読むと、それぞれの長所と短所がすぐにはわかりません。 一部のモードはより高速なフェイルオーバーを提供しますか? 各モードのCPU負荷への影響はどうですか? 冗長性を提供するだけでなく、帯域幅を組み合わせることができるモードはどれですか? それには制限がありますか? balance-rrはスイッチのサポートを必要としますか? 信頼性は?長期にわたるあなたの経験は何ですか?

2
ネットワークトラフィックがトランクを離れていないように見える
私はいくつかの新しい仮想化サーバーをステージングしている最中ですが、その一部は、より高い帯域幅のパイプをサーバーに取り込むことです。最終的な目標は、4つのGigEポートを、802.1qタグ付きトラフィックを運ぶ単一のトランクにバインドすることです。私はそれまでのところ得ることができますが、私は奇妙な問題に遭遇しました。しかし、最初に、図。 ---------- ---------- 1GbE trunks | | 10GbE | | ------------- -------- | SW1 |-------| SW2 | ------------- | VM1 | | | | | ------------- -------- ---------- ---------- | | 1GbE ----------- | 1GbE |--------| client2 | | ----------- ---------- | | 1GbE ----------- | SW3 |------| client1 | …

1
Ubuntu 16.04ボンディング設定が機能しない
ボンディングのセットアップに奇妙な問題があります。昨日、Ubuntu 16.04サーバーにPi Holeをインストールしようとしましたが、結合が台無しになりました。Pi Holeをアンインストールしましたが、もう機能していません。 私の/ etc / network / interfaces: auto lo iface lo inet loopback auto enp7s0 iface enp7s0 inet manual bond-master bond0 auto enp8s0 iface enp8s0 inet manual bond-master bond0 auto enp9s0 iface enp9s0 inet manual bond-master bond0 auto enp10s0 iface enp10s0 inet manual bond-master bond0 auto bond0 …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.