タグ付けされた質問 「networking」

ネットワーキングとは、デバイスとアプリケーションの相互接続を可能にし、それらが電子的に通信できるようにするテクノロジーとテクニックを指します。

1
サーバールームの配線に関する質問
わかりやすく整理された、トラブルシューティングが容易になるようにサーバールームを再配線することを検討しています。 現在、現在4つのHPラックがあります(現時点ではモデルがわかりません)。UPSを構築していないため、UPSを各ラック(10K、5K)に配置しています。これは多くの混乱を引き起こしているが、残念ながらそれを行う別の方法はない。また、上げ床もありません。 私のラックの1つには、ファイアウォール、ネットワークスイッチ、およびファイバースイッチが含まれています。現在、メインスイッチから他のラックのすべてのサーバー/ SANに(直接)ケーブルを配線しています。他のラックには、ほとんどのサーバーが含まれており、その中にSANも含まれています。 私の質問は次のとおりです。 各ラックにパッチパネルを配置し、メインスイッチからパッチパネルまでケーブルを配線する必要がありますか?次に、各サーバーを独自のラックにあるパッチパネルに接続しますか? 右には、ラックの前面の通路にエアコンが向けられています(拡張時のホットアイル/コールドアイルのセットアップの準備)。これを取り上げる理由は、スイッチが背面ではなくラックの前面にあるためです。スイッチとパッチパネルを背面または前面に配置する必要がありますか? パッチパネルをラックの前面に配置する場合、サーバーの背面からパッチパネルまでケーブルを配線する最良の方法は何ですか?他のラックが接触しているため、実際にはラックの側面にアクセスできません(パネルを開きます)。 電力の状況については、現在、各ラックのHP拡張バーに接続する2つのHP PDUがあります。これらは左側にあり、LANケーブルは右側にあります。左側に電源があり、いくつかが右側にあるサーバーが混在しています。したがって、左右にエクステンションバーとPDUを配置することは素晴らしいことですが、CATケーブルと電源を分離したままにしておくべきだと読みました。これを続けるべきですか? 私が質問を逃したと思うなら、私に知らせてください!前もって感謝します!

1
低遅延10GbE-> 1GbEネットワークのTCP輻輳制御?
スイッチへの10GbE接続を備えたサーバーと、それぞれ同じスイッチへの1GbE接続を備えた10個のクライアントがあります。 各クライアントでnuttcpを並行して実行すると、10のTCPストリームのデータをワイヤスピードに近い速度で同時にサーバーにプッシュできます(つまり、10のクライアントすべてからわずか100メガバイト/秒)。 ただし、方向を逆にしてサーバーからクライアントにデータを送信すると(つまり、各クライアントに1つのTCPストリームが10回)、TCP再送信が急増し、パフォーマンスが1秒あたり30、20、または10メガバイトにまで低下しますクライアントごと。このトラフィックパターンは、私が関心を持っている特定のアプリケーションの代表であるため、これらの数値を上げたいと思います。 同様のサーバーへの10GbE接続で同じ実験を実行することにより、サーバーが10GbEリンクを飽和できることを確認しました。ポートにエラーがないことを確認しました。 最後に、受信者のTCPウィンドウサイズを強制的にクランプ(制限)すると、帯域幅を多少高くすることができます(30〜40メガバイト/秒)。そして、非常に低くクランプすると、再送信をゼロにできます(帯域幅はばかげて低くなります)。 したがって、スイッチのバッファをオーバーランさせており、輻輳によるパケット損失が発生していると確信しています。ただし、TCPの輻輳制御はこれをうまく処理し、最終的にワイヤ速度の50%を超える値で安定するはずであると考えました。 したがって、私の最初の質問は非常に単純です:どのTCP輻輳制御アルゴリズムが私の状況に最適でしょうか?たくさんありますが、ほとんどは損失の多いネットワーク、高帯域幅、高遅延のネットワーク、またはワイヤレスネットワークをターゲットにしているようです。いずれも私の状況には当てはまりません。 2番目の質問:他に試すことができるものはありますか?
11 linux  networking  tcp 

2
IOATは有効ですが、Linuxで使用されていませんか?
igbバージョン4.1.2を搭載したR610では、ioatdmaモジュールがロードされています(lsmodでロードされています)。 ioatdma: Intel(R) QuickData Technology Driver 4.00 ioatdma 0000:00:16.0: irq 80 for MSI/MSI-X ioatdma 0000:00:16.1: irq 81 for MSI/MSI-X ioatdma 0000:00:16.2: irq 82 for MSI/MSI-X ioatdma 0000:00:16.3: irq 83 for MSI/MSI-X ioatdma 0000:00:16.4: irq 84 for MSI/MSI-X ioatdma 0000:00:16.5: irq 85 for MSI/MSI-X ioatdma 0000:00:16.6: irq 86 for MSI/MSI-X ioatdma …

2
BINDネームサーバーとのパケットキューパフォーマンスの不一致
バックグラウンド: 一貫性のないリングバッファー設定(eth0の場合は1020、eth1の場合は255)が一貫していない大容量キャッシングネームサーバー環境(Redhat Enterprise Linux 5.8、IBM System x3550)を継承しました。eth0はそのローカルデータセンターのスイッチ1に接続され、eth1は同じデータセンターのスイッチ2に接続されます。クラスター内のすべてのサーバーは、eth0またはeth1がアクティブなインターフェースであるかどうかを交互に切り替え、すべてのクラスターは異なるリージョンに配置されます。リングバッファは明らかに一貫性を保つ必要があります。 ISCナレッジベースがアウトバウンド輻輳に関連していると示唆している「エラー送信応答:設定解除」エラーを多くのネームサーバーが頻繁に記録している理由を調査したときに、上記の問題を発見しました。高いリングバッファ設定(1020)のサーバーは、ifconfigでドロップするパケットは(予想どおり)少なくなりますが、上記のエラーをログに記録する傾向があります。これを「グループ1」と呼びます。リングバッファ(255)の設定が低いサーバーは、1日あたりの受信パケットを大幅にドロップしますが(予想どおり)、BINDエラーのインスタンスははるかに少なく、通常は同じ負荷グループで0〜150です。 ここでも大きな謎ではありません。DNSのキャッシュは再帰的なサービスです。何かがキャッシュされない場合、サーバーはその1つの質問に代わって最終的に回答を返すまで複数のクエリを作成する必要があります。これは、(1つの入力)->(多くの出力)クエリ関係です。RXリングバッファーを修正すると、この数値がボード全体で新しい値に等しくなり、そこからproc(wmem_max / wmem_default)でカーネルの送信ネットワークキューを調整することをお勧めします。 パフォーマンスの問題に対する構成変更の影響を測定できるのが好きなので、実稼働環境の変更を開始する前にいくつかのデータを収集するレポートを作成しました。以下は、グループ1の最初の2台のサーバーの出力例です。 group1-01 RX: 7166.27/sec av. TX: 7432.57/sec av. RXDROP: 7.43/sec av. unset_err: 27633 group1-02 RX: 7137.37/sec av. TX: 7398.50/sec av. RXDROP: 9.94/sec av. unset_err: 107 これらは式です。これはローカルスクリプトであり、サーバーごとに維持する必要があるシェルスクリプトに依存しないことに注意してください。 RXPACK=$(ssh $server "sar -n DEV -f /var/log/sa/sa$(date --date=yesterday '+%d') | grep \"Average: .*\$(awk …

2
KVMゲストとホスト間のジャンボフレーム?
KVMゲストとホストシステム間のストレージ通信用に9000バイトのMTUを実装しようとしています。ホストには、br19000バイトのMTUを持つブリッジ()があります。 host# ip link show br1 8: br1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc noqueue state UP link/ether fe:54:00:50:f3:55 brd ff:ff:ff:ff:ff:ff inet 172.16.64.1/24 brd 172.16.64.255 scope global br1 inet6 fe80::21b:21ff:fe0e:ee39/64 scope link valid_lft forever preferred_lft forever ゲストには、このブリッジに接続されたインターフェイスがあり、9000バイトのMTUもあります。 guest# ip addr show eth2 4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc pfifo_fast state UP qlen …

1
Linux-ホスト名を変更した場合、どのサービスを再起動する必要がありますか?
私はいくつかの環境にわたってシステムのホスト名を変更していますが、これは私に考えさせられました... サーバーのホスト名(ライブ)を変更する場合、何を変更する必要があり、どのシステムサービスを再起動する必要がありますか?これは再起動せずにオンラインで行われると仮定します。 実行中にホスト名の変更が行われる他の人々によって構築された多くのシステムに遭遇しますが、変更は再起動後も持続しないか/var/log/messages、別のホスト名がスタンプされています。 私は定期的にフォローします: 走る hostname <new-short-hostname> /etc/hosts これらのガイドラインに従って変更します。 変更する /etc/sysconfig/network デーモン側で... sendmail / postfix(一致するホスト名が必要です) cups(不正なホスト名で印刷デーモンが停止する場合があります) syslog / rsyslog(ホスト名はシステムメッセージとともに記録されます) httpd(適切なホスト名が必要です) 他に注意が必要なものは何ですか?

4
ロングギガビットイーサネットラン
約260フィート離れた2つの建物間にGig-Eネットワークを取得しようとしています。一部のTRENDnetスイッチは、その距離でCat 6を介して相互に接続できませんでしたが、2つのNetgear 5ポートGig-Eスイッチは正常に接続できます。ただし、回線が各スイッチに接続する前に、両端にAPC PNET1GBイーサネットサージプロテクターを配置した後でも、まだ失敗します。そのため、信号をそれほど劣化させないより優れたサージプロテクターを単に見つける必要があるのか​​(もしそうなら、どのような種類をお勧めしますか)、銅線をあきらめて建物間でファイバーを使用する必要があるのか​​疑問に思います。 後者のルートを選択した場合、実際にいくつかのポインターを使用できます。LCコネクタが最も一般的であるように見えますが、私は他のいくつかにも出会っています。両端のメディアコンバーターは最も単純なソリューションのように見えますが、おそらくSFPポートを備えたGig-Eスイッチの方が理にかなっていますか?予算が非常に限られていることを考えると、既存の銅線に固執するのが最善のように思えますが、頭痛の種にならなければ、100メートルのファイバーケーブルはコスト的に賢明に振れると思います。

2
ビジーなインターフェイスでtcpdumpingを実行すると、多くのドロップされたパッケージ
私の挑戦 大量のデータのtcpdumpを実行する必要があります。実際には、多くのトラフィックを見ることができる無差別モードのままの2つのインターフェースからです。 まとめると 2つのインターフェイスからの無差別モードのすべてのトラフィックを記録します これらのインターフェイスにはIPアドレスが割り当てられていません pcapファイルは〜1Gごとにローテーションする必要があります 10 TBのファイルが保存されたら、最も古いファイルの切り捨てを開始します 私が現在していること 現在、私は次のようにtcpdumpを使用しています。 ifconfig ethX promisc ifconfig ethX promisc tcpdump -n -C 1000 -z /data/compress.sh -i any -w /data/livedump/capture.pcap $FILTER に$FILTERはsrc / dstフィルターが含まれているため、を使用できます-i any。この理由は、2つのインターフェイスがあり、2つではなく1つのスレッドでダンプを実行したいからです。 compress.sh tarを別のCPUコアに割り当て、データを圧縮し、適切なファイル名を付けて、アーカイブの場所に移動します。 2つのインターフェイスを指定できないため、フィルターを使用してanyインターフェイスからダンプすることを選択しました。 現在、私はハウスキーピングを行いませんが、ディスクの監視を計画しており、100Gが残っているときに最も古いファイルの消去を開始します-これで問題ありません。 そしていま; 私の問題 ドロップされたパケットが表示されます。これは、数時間実行され、およそ250ギガバイトのpcapファイルを収集したダンプからのものです。 430083369 packets captured 430115470 packets received by filter 32057 packets dropped by …

4
グループポリシーとネットワークに関するネットワークログオンの問題
私はあなたの助けと援助を大いに必要としています。 Windows 7 Enterpriseシステムへのログオンと起動に問題があります。キャンパス周辺の約20以上の建物に3000以上のWindowsデスクトップがあります。キャンパスのほぼすべてのコンピューターには、これから説明する問題があります。Windows Performance Analyzer(優れた製品)からのetlファイルと数十万のイベントログを1か月以上ピアリングしました。今日、私はこれを理解することができなかったことに謙虚にあなたに来ます。 ログオン時間を簡単に言えば問題は非常に長いです。平均的な初回ログオンは、インストールされているソフトウェアに応じて約2〜10分です。すべてのコンピューターはWindows 7であり、最も古いコンピューターは5歳です。さまざまなコンピューターでの起動時間は、良好(1〜2分)から非常に悪い(5〜60)の範囲です。2回目のログオンの範囲は30秒から4分です。 ネットワーク上の各コンピューター間にギガビット接続があります。DNSサーバーとしても機能する5つのドメインコントローラーがあります。 最初のテストでは、これがソフトウェアの問題であると考えました。そのため、xperfviewのetlファイルから一貫性のない結果を見つけるためだけに、マシンを数日間テストしました。キャンパス内のコンピューターの各サブセットには、ソフトウェアの問題の異なるサブセットがあり、起動時のログオンを妨げるものはありませんでした。 そこで、グループポリシーを調べ始め、非常に興味深いイベントIDを見つけました。 グループポリシー1129:ドメインコントローラーへのネットワーク接続がないため、グループポリシーの処理に失敗しました。 グループポリシー1055:グループポリシーの処理に失敗しました。Windowsはコンピューター名を解決できませんでした。これは、次のうちの1つ以上が原因である可能性があります。a)現在のドメインコントローラーでの名前解決の失敗。b)Active Directory Replication Latency(別のドメインコントローラーで作成されたアカウントが現在のドメインコントローラーにレプリケートされていません)。 NETLOGON 5719:このコンピューターは、次の理由により、ドメインOURDOMAINのドメインコントローラーとの安全なセッションを設定できませんでした。現在、ログオン要求を処理できるログオンサーバーがありません。これにより、認証の問題が発生する場合があります。このコンピューターがネットワークに接続されていることを確認してください。問題が解決しない場合は、ドメイン管理者に連絡してください。E1kexpress 27:Intel®82567LM-3ギガビットネットワーク接続–ネットワークリンクが切断されています。 NetBT 4300 –ドライバーを作成できませんでした。 WMI 10-エラー0x80041003のため、クエリ "SELECT * FROM __InstanceModificationEvent WITHIN 60 WHERE TargetInstance ISA" Win32_Processor "AND TargetInstance.LoadPercentage> 99"がネームスペース "//./root/CIMV2"で再アクティブ化できませんでした。問題が修正されるまで、イベントはこのフィルターを介して配信できません。 タイムスタンプが多かれ少なかれ、ネットワークに問題がある可能性があることが明らかになります。 1:25:57-グループポリシーはドメインコントローラー情報を検出しようとしています 1:25:57-ネットワークリンクが切断されました 1:25:58-ドメインコントローラーへのネットワーク接続がないため、グループポリシーの処理に失敗しました。これは一時的な状態である可能性があります。マシンがドメインコントローラーに接続され、グループポリシーが正常に処理されると、成功メッセージが生成されます。数時間成功メッセージが表示されない場合は、管理者に連絡してください。 1:25:58-LDAP呼び出しを行って、Active Directoryに接続およびバインドします。DC1.ourdomain.edu 1:25:58-0ミリ秒後に呼び出しが失敗しました。 1:25:58-ドメインコントローラーの詳細の再検出を強制します。 1:25:58-グループポリシーは1030ミリ秒でドメインコントローラーを検出できませんでした 1:25:58-コンピューターOURDOMAIN \%name%$の定期的なポリシー処理が1秒で失敗しました。 1:25:59-全二重で1Gbpsのネットワークリンクが確立されました …

2
2つのLinuxサーバー間のブリッジネットワーク
次のネットワークアーキテクチャを設定する必要があります。 Internet ^ +-----------------+ | +------------------+ | Centos6-1 | | | Centos6-2 | | +---- eth0 + ----+ | | | (br0)| | | | | +---- eth1 +----------------+ eth0 | +-----------------+ +------------------+ ( cable connection ) 次のように2つのパブリックIPを構成します。 ** Centos6-1のeth0およびeth1は、IP1のブリッジとして構成されます Centos6-1はIP1でアクセスできます Centos6-2のeth0はIP2で構成されています IP2宛てのリクエストはすべてCentos6-1を経由します。 この偉業を達成するにはどうすればよいですか? 2番目のサーバーで実行中のサービスがあります。このサービスはIP2にバインドします。何が起こるか 編集: box1で次の操作を行った場合: brctl addbr br0 …

4
配線クローゼットで吊り天井が許可されないのはなぜですか?
私は本「ケーブル配線:ネットワーク配線の完全ガイド」で、ワイヤリングクローゼットに吊り天井を設置すべきではないことを読みました。いくつかのGoogle検索では、この概念が繰り返されています。私はこの理由について良い情報源を見つけることができませんでした。「ローカルコード次第」のような種類の理由ではなく、その背後にある概念の真の説明です。 ありがとう


7
一方向ネットワーク接続
私は非常に偏執的なクライアントを持ち、別々のPCなどで2つの別々のネットワーク(1つはオフライン、1つはオンライン)を実行しています。 オフラインネットワークで実行するアプリケーションを作成しましたが、ネットワークはクライアントに電子メールを送信できる必要があります。私のアイデアは、電子メールを送信するオフラインサーバーからオンラインPCへの一方向のネットワーク接続(ダイオードなど)を持つことです。 これについて最も効果的な方法は何ですか?一方向のネットワークカードを入手できますか? Windows Server 2008ネットワーク、Windows PC。

4
ネットワークインフラストラクチャラベリングの業界標準
ラックとジャックで建物の物理インフラストラクチャにラベルを付ける方法と、ドキュメントをどのようにレイアウトするかを定めた、IEEE、ISO、ANSIなどの現在の業界標準はありますか?IEEE Std 200があることは知っていますが、それは時代遅れであり、電気製品のASME標準を見つけましたが、実際には読むことができません。

2
なぜT568AとT568Bの両方の規格ですか?
Cat5 UTPのケーブル配線には2つの異なる配線規格があるのはなぜだろうといつも思っていました。両者の唯一の技術的な違いは、緑とオレンジのペアが交換されていることです。これにより、配線が行われている限り、正確に同じことが実現されます(終端が正しいピン配列を使用している限り)。 両方の基準があるという歴史的な理由はありますか?技術的な理由はありますか?配線を標準にする必要がありますか?または、それはあなたが対処しなければならない奇妙で厄介なものの1つにすぎません(明らかに明らかな理由)?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.