タグ付けされた質問 「sles10」

6
ギガビットボンドが150 MB / s以上のスループットを提供しないのはなぜですか?
2つの異なるPCIeアダプターに2つのPowerEdge 6950クロスオーバーを(直線を使用して)直接接続しました。 これらの各回線(1000 MBit、全二重、両方向のフロー制御)でギガビットリンクを取得します。 今、私は両側のrrアルゴリズムを使用してこれらのインターフェイスをbond0に結合しようとしています(単一のIPセッションで2000 MBitを取得したい)。 tddモードでdd bs = 1Mとnetcatを使用して/ dev / zeroを/ dev / nullに転送してスループットをテストすると、予想通り150 MB / sを超える-70 MB / sのスループットが得られます。 単一の回線を使用する場合、各回線で異なる方向を使用すると、各回線で約98 MB /秒になります。単一の回線を使用する場合、トラフィックが「同じ」方向に進むと、回線で70 MB /秒と90 MB /秒になります。 bonding-readme(/usr/src/linux/Documentation/networking/bonding.txt)を読んだ後、次のセクションが有用であることがわかりました:(13.1.1シングルスイッチトポロジのMTボンディングモードの選択) balance-rr:このモードは、単一のTCP / IP接続が複数のインターフェースにトラフィックをストライプ化することを許可する唯一のモードです。したがって、単一のTCP / IPストリームが複数のインターフェイスの価値のあるスループットを利用できるようにする唯一のモードです。ただし、これにはコストがかかります。ストライピングにより、多くの場合、セグメントを再送信することにより、ピアシステムがパケットの順序を乱し、TCP / IPの輻輳制御システムが作動します。 It is possible to adjust TCP/IP's congestion limits by altering the net.ipv4.tcp_reordering sysctl …
17 linux  bonding  sles10 

2
フォワーダーDNS要求をTCPモードに強制する
マルチホームサーバーのSLES10(現在は9.6をバインド)にDNSサーバーを設定しました。このサーバーは、すべての内部ネットワークからクエリを実行でき、すべての内部ネットワークに応答を提供します。2つの別個のDNS「マスター」ゾーンがあります。これらの各ゾーンは、いくつかの信頼できるWindows-DNSサーバーによってサービスされています。 現在、私のlinux-serverは、これらのゾーンの1つ(プライベート内部ゾーン)のセカンダリDNSサーバーであり、他のゾーン(パブリック内部ゾーン)のフォワーダーとして機能しています。 最近まで、このセットアップは問題なく機能していました。今私は-パブリック内部ゾーンをクエリすると(例えばhost、Linuxクライアントのコマンドによって)エラーメッセージが表示されます ;; 切り捨て、TCPモードで再試行 Wiresharkダンプが原因を明らかにしました:最初のクエリはUDPモードで送信され、回答はUDPに適合しません(信頼できるNSのリストが長いため)、TCPモードで再試行され、正しい回答が提供されます。 ここで質問: 最初にUDPを試行せずにTCPモードでフォワーダーをクエリするようにバインドを構成できますか? 更新:ASCIIアートを試してみる... +--------------+ +--------------+ +-----------------+ | W2K8R2 DNS | | SLES 10 DNS | | W2K8R2 DNS | | Zone private +---+ All internal +---+ Zone public | | internal 2x | | Zones | | internal 30+ x | +--------------+ +-+----------+-+ +-----------------+ …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.