x10 1gb / sポート経由で10gb / s
私は完全を期すために、そして頭痛を軽減するために答えています。 これと似たようなことをしている2万台以上のサーバーがありますが、それは悪い考えだと言えます。この方法は、後で操作上の問題を引き起こす多くの複雑さを追加します。サーバーごとに4つの1GB NICでこれを行いました。当時、実際には10ギガバイトに行くよりも意味がありました。当時、どこでも10ギガは非常にわずかな利益のために何倍ものコストでした。データセンターの最近の不満は、もはやこれを行いません。
単一のLAGパートナーとのLACPボンド(モード4)は、単一の10gb / sポートとほぼ同じ10gb / sを提供します。これは実際には複数のスイッチを使用して実行できますが、MLAGをサポートする必要があります。そうでない場合は、1つのスイッチにのみ接続する必要があります。MLAGをサポートしていない場合、帯域幅のスイッチは1つしか取得できません。他のインターフェイスはスタンバイ状態になります。(2つのスイッチがある場合は5gb / sです)。
単一の接続は1つのリンクのみを使用しますが、必要に応じてレイヤー7で必要に応じてトラフィックを分割できます。または、MPTCPを調べることができますが、そのサポートは最近のカーネルで新しく、準備ができていないプライムタイム。LFTP + SFTPとLFTPのミラーサブシステムを使用して、データ同期を分割できます。1つのファイルを複数のストリームに分割することもできます。bittorrentもあります。
クライアント側からこれらのポートでDHCPを実行してOSインストーラーをPXEブートすることはできません。サーバー側でeth0を強制的に起動すると、LACPモニタリングが技術的に中断されます。それは行うことができますが、すべきではない、それはなりますが、インターフェイスをアップ強制場合のトラブルシューティングの問題をより困難にします。
ボンディング構成では、すべての物理インターフェイスとは異なる一意のMACアドレスを生成する必要があります。または、セットアップにDHCP / PXEがあると仮定すると、PXE / DHCPの動作方法により競合状態になります。その場で一意のbond0 MACを生成する方法のオンライン例が多数あります。
これには、各サーバーのボンディング構成と整合するスイッチ側の構成も必要です。トラブルシューティングを簡単にするためにLLDPデーモンをインストールし、スイッチでLLDPを有効にする必要があります。
これを行う場合、ラベル付けとラベル付けに問題がないことが必要です。スイッチの自動化は安定している必要があります。2つのサーバーを混在させる1つのケーブルオフセットは、非常に楽しい問題を引き起こします。
ボンディングコードを彼と同じように優れたものにし、この構成でDHCPを機能させる方法を見つけ出してくれたIBMのJayに称賛を送ります。