ネットワークのより速いセグメントは、より速いフローレートまたはより低いレイテンシーを意味しますか?


12

これは、これらの仮説的な質問のもう1つです。ホストAとホストBの間にネットワークのより速い「セグメント」があると、それらの間のより速いフローレートまたはより低いレイテンシーに変換されるかどうかを把握しようとしました。コンピューターAとコンピューターBの間のネットワーク内の物理リンクを示します。

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

つまり、ホストAから最初のスイッチへの1Gリンクがあり、その中にSFPモジュールがあり、短い10G / 40G / 100G(実際には問題ではなく、1Gよりも高速)に接続されています。別の1G銅線スイッチ内の別のSFPモジュール。1G銅線を介してホストBに接続されています。

ファイバーが中央で実行されるため、2つのホスト間でトラフィックが速く流れますか?または、2つのスイッチ間のセクションがネットワークの他の部分と同じ速度だった場合、流量と遅延は同じになりますか?

ホストAとホストBの間でレイテンシーを短くすることは理にかなっていますが、NICの入力および出力レートはフローレートを制限しますか?その場合、「コア」スイッチとルーターをより高速なリンクで接続することは理にかなっていますか?

回答:


13

どちらでもない。ファイバリンクと銅リンクを交換する可能性がほんの少し(非輻輳リンクを仮定し)、待ち時間下げていますが、より高い帯域幅のリンクを持つ「コア」のリンクを交換するとき、あなたが本当に何を得ることは少ない可能混雑です。シーンリオの例では、両端にデバイスが1つしかないため、問題ではありません。ただし、ライブネットワークでは、1gから10gのコアリンクに移動すると、ネットワークのコア内の輻輳問題が緩和されます。

副作用として、待ち時間が短くなり、トラフィックフローが向上する場合がありますが、これは純粋に輻輳が緩和されているため、ルーター/スイッチが過負荷にならず、トラフィックをドロップ/キューイングしているためです。


したがって、ネットワークのコアにあるリンクの速度を上げると、速度ではなく容量が増えます。
リブックス

4
基本的にははい。ネットワーク用語の「速度」は、それほど高速ではありませんが、リンク上でプッシュできる1秒あたりのビット数です。遅延/ RTTは通常、パス内のデバイスの数と組み合わされた合計距離の問題です。各ホップ/デバイスはわずかな遅延を追加します。「堅牢性」は基本的に物理学と光の速度にかかっています。
ジャスティンシーブルックロシャ

そこのキーポイントは、ビットがすべて同じ速度で移動することです-それは本当に私が思っていたものです。
リブックス

2
また、金融取引の土地に入ると、このすべてが窓から消えることに言及します。その世界では、RTTが王様です。マイクロ秒のRTTでさえ、ワークステーションをサーバーに100フィート近づけてファイバーのドロップを短くするなど、あらゆる種類の馬鹿げたことをします。
ジャスティンシーブルックロチャ

7
信号は100M、1GE、または10GEに関係なく同じ速度で移動しますが、速度が上がるとシリアル化遅延(ワイヤにフレームを注入するのにかかる時間)が下がります。つまり、1538Bの100Mシリアル化遅延でフレームを0.123ミリ秒で送信した場合、1GEではそのフレームはすでに21 kmファイバ下にあります。
ytti

6

データの流れの速度は、媒体の物理学に違いをもたらしません。これにより、電気信号が100メートルの銅線の一方の側から他方の側に流れるのに、その信号が10Mbpsリンクまたは1Gbpsリンクの一部であるかどうかにかかわらず、同じ時間がかかることを意味します。

銅線からファイバーに変更すると、わずかな改善に気付くかもしれませんが、実際にはわずかな違いにすぎません。

現在、他の要因もあります。たとえば、10 Gbpsを実行できる機器は、10 Mbpsを実行するように設計された機器よりも一般にフレーム/パケットを処理する能力が高いため、機器によって追加されるレイテンシは上手。ただし、これは、リンクの速度ではなく、機器の機能に完全に依存しています。


5

この場合、1Gエンドツーエンドから10Gコアに移行しても、何も大きく変わらないはずです。10G +リンクでのより高速なシグナリング(ビット時間の短縮)により、スループットのわずかな増加のみがもたらされます。しかし、輻輳がない場合(他のホストを読んでください)、彼らは最初からリンクを飽和させることができたはずです。

ホストAおよびBがパケットをシグナルする(インおよびアウト)のにかかる時間は変わりません。パケットがスイッチからスイッチへホップするのにかかる時間は、理論的には比例して速くなります。ただし、これらの速度では、違いは人間には目立ちません。(1500 mtuパケットで約10μs)


たとえば、スイッチ間の100Gリンクは顕著な違いをもたらすでしょうか?
リブックス

彼らはすでに自分のローカルリンクを飽和状態以上にすることができます。敏感なテスト機器を使用すると、パケットごとのレイテンシの変化を測定できますが、1ギグのリンクが速くなることはありません。:-)とはいえ、本当の利点は、リンクを使用しているホストAとBだけではない場合の輻輳回避です。
リッキービーム

0

スループットは、ウィンドウサイズ/ RTTに対して= RTTを短縮するとスループットが増加するため、価値があるかどうかは別の質問です。ウィンドウサイズが大きいほど、RTTの減少による影響が大きくなります。


1
128kウィンドウでは、1Gエンドツーエンドは約3.5G / sになります。中央に10Gリンクがある場合、その数は〜5G / sにジャンプします。両方の数値がホストのリンク速度を大幅に上回っていることに注意してください。したがって、まったく目立たないでしょう。
リッキービーム

0

場合によります。

それ以外のアイドルネットワークでは、スイッチングデバイスが「ストアアンドフォワード」か「カットスルー」かによって異なります。スイッチングデバイスがストアアンドフォワードである場合、リンクが高速になるとレイテンシが短くなります。ただし、カットスルースイッチングをサポートしている場合は、低速の着信リンクから高速の発信リンクへのカットスルースイッチングを実行できないため、余分な遅延が発生します。ただし、高頻度取引の世界などでプレイしている場合を除き、これはいずれにしても無視できる可能性があります。

コアにより多くの容量がある実際のネットワークでは、他のユーザーからの輻輳が発生する可能性が減少します。輻輳により、スループットが低下し、遅延が増加します。一般に、コアリンクがエンドユーザーリンクよりも高速であるため、エンドユーザーが飽和させることはできません(したがって、デスクトップにギガビットを実行している場合は、おそらく10ギガビットコアを実行する必要があります)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.