ネットワーク中立性、技術的に言えば、実際にはどのように機能しますか?
では、このNPRの記事が記載されて「ネットワークの中立性」、それが実際にあるか、どのようにほとんど詳細をどのようにそれが実際に動作します。私は自分でそれを研究しようとしましたが、私はそれが戦っているものの多くの非技術的な説明を取得します(本質的にインターネットトラフィック速度を測定します)が、私はこれがどのように機能するかについて非常に混乱しています。 私のインターネットの理解は(広く)ユーザーJoeはHTTPプロトコルを介してWebサイトnpr.comとの接続を開き(DNSの作業後)、NPRとJoeのアップロードとダウンロードの両方の速度を利用してNPRのサーバーとデータを送受信します。 スロットルはどこで発生していますか?重要なステップを見逃していますか?されるのトラフィックを「絞るされている「途中で」ややISPレベルでの料金所のようなクライアント/サーバーへ? NPRの記事では、1つのWebサイトがユーザーにトラフィックをより速く送るためにどのように支払うことができるかの例を紹介しています。ダウンロード速度が何であっても、着信トラフィックがすべて最大にならないため、これを理解できません。さらに、アップロード速度が何であれ、サーバーは上限に達していませんか? たとえば、サーバー(www.mysimplesite.com)から1MB / sのアップロード速度で1MB / sのダウンロード速度を持つクライアント(joe)に1MBのデータを送信しようとすると、この転送は行われません。アップロード速度が2MB / sのサーバー(www.thesuperubersite.com)と同じ[理論上の]時間ですか? 一般的に速度が制限されているのがクライアントである場合、コンテンツを「より速くユーザーに届ける」ためにどのサーバーが支払うことができるかはわかりません。以下からの技術的な観点、 どのようにこの作品がでしょうか?アナロジーや意見も探していません。