ISPクラウドの端に次の種類のリンクがあります。
+-----------------------+
| Customer 1 |
|-----------------------|
+-----------------------+ +-----------> |
| XMR | | | |
|-----------------------| | +-----------------------+
| | +-------------------+--+
| | | BT Cloud |
| | |----------------------|
| | | |
| +---------> | +-----------------------+
| | | | | Customer 2 |
+-----------------------+ +-------------------+--+ |-----------------------|
| | |
+-----------> |
+-----------------------+
左側はBrocade XMRです。これは、この例ではBTのように、単一のギグリンクを介して多くのキャリアに接続されています。BTは、A側のこの1つのリンクを介して多くのポイントツーポイントリンクを提供します。次に、B端が分離され、地理的に分散した各サイトに移動します。A側のXMRポートでは、事前に合意されたVLAN IDを介してトラフィックがどのサイトに移動するかを指定します。
これはすべて完璧に機能し、BTや他の多くのキャリアへのリンクが多数あります。
問題は主に、XMRからのQoSアウトバウンドです。私のXMRとキャリアの間にギグリンクがありますが、これらの内部回路は2Mbからギグまで何でも可能です。
顧客1が10Mbリンクを持っていると仮定しましょう。彼らは、このリンクの25%がEFマーク付きトラフィック用に予約されることを望んでいます。インターフェイスを10Mbに形成し、EFマークの付いたパケットに25%の優先順位を与えることができるので、これはCPEレベルで簡単に送信できます。ただし、A側では、XMRはこのリンク全体を1Gbと見なします。カスタマーサイト1へのvlan 2000が10Mbのみであることを認識していません(BTは独自のネットワーク内でそれを10Mbにポリシングしています)
H-QoSは、VLANを2000〜10Mbにシェーピングでき、そのシェーピングされた値内で25%のEFを実現できるため、理想的です。問題は、XMRのH-QoSが8X10Gbモジュールでのみサポートされていることです。私たちが使用しているキャリアは、ネイティブ10Gbを提供していませんが、直接提供しています(1Gbリンクをたっぷり使用してください)
私の計画は、XMRとH-QoSを単純に行うキャリアの間に別のデバイスを取り付けることです。私は、VLAN IDに基づいてH-QoSを実行できると思われるCisco ME3600Xを見てきました。ME3600Xでこの特定の機能を使用した経験のある人はいますか?
基本的に私はそれがより理にかなっている場合、このように見える設定が欲しいです:
policy-map out-policy-parent
class vlan2000
shape average 10000000
service-policy out-policy
class vlan2001
shape average 20000000
service-policy out-policy
policy-map out-policy
class EF
priority percent 25
class AF21
bandwidth percent 50
interface gigabitethernet0/1
service-policy output out-policy-parent