光ファイバ通信で255 Tbit / sはどのように処理されますか?


25

電気信号と光信号の変換に関して、新しい記録破りのデータ転送速度がどのように達成されるかを理解したことはありません。

255 Tbitのデータがあり、1秒で転送したいとします。(これは現実世界の成果です。)255 Tbitを、たとえば255兆個のコンデンサー(RAM)に保存しました。これで、各ビットを連続して読み取り、1秒後に255兆個すべてを読み取ることができるようになります。これは明らかに3 GHzプロセッサによって調整されていません。

受信側はどうですか?パルスは255 THzで送信されますが、入力信号を読み取ろうとする電子機器のリフレッシュレートは255 THzではありません。私が想像できる唯一のものは、クロック信号が0.000000000001秒未満で時分割多重化(遅延)された数千のプロセッサです。そのような多重化をどのように実現するかは、この周波数の千倍の差があるという私の問題に戻ってきます。


4
「これは明らかに3GHzプロセッサによって調整されていない」のはなぜですか?すべてのコンポーネントにデータを送信するよう指示するだけで、DMAや同様のテクノロジーは基本的に永遠に使用されています。また、明らかに消費者向けハードウェアでは255Tbitは達成されていません。
PlasmaHH

22
このようなシステムは、パルスなどの特定の方法で機能すると想定しています。データを転送するためのよりスマートで効率的な方法があるので、それがそのように機能することを疑います。私にパルスを使用することは、ファイバの帯域幅を使用する非常に非効率的な方法のようです。何らかの形のOFDMA変調が使用されると期待しています。次に、異なる搬送周波数で、異なる波長の光を使用して、多数のチャネルを並行して変調します。何かが特定の方法で機能すると仮定する前に、間違った仮定が間違った結論につながるため、それを調べてください!
Bimpelrekkie

2
@Bimpelrekkie:その技術(これは3年前です)のより興味深い事実の1つは、それらに7コアマルチモードファイバーを使用していることです。
PlasmaHH

12
繰り返しますが、あなたは仮定を立ててから、これらを自分で疑問視しています!?!?なぜトピックを研究あなたがするように知っている理解して、それはだけではなく、(おそらく間違ってとにかくです)何かを想定しての検査は行われていますか。言っておく良いです。その場合、何かが特定の方法で機能すると仮定して、その(誤った)仮定を拡張するだけではわかりません
ビンペルレキエ

3
この現実の成果について読んだ場所にリンクしてください。また、なぜデータが連続して送信されたと思いますか?
光子

回答:


43

物事を限界に追い込んでいる研究論文を心配するのではなく、まず目の前にあるものを理解することから始めます。

自宅のコンピューターのSATA 3ハードドライブは、シリアルリンクを6ギガビット/秒でダウンさせる方法を教えてください。メインプロセッサは6 GHzではなく、ハードドライブのプロセッサは確かにそうではないので、論理的には不可能です。

答えは、プロセッサが一度に1ビットずつ出力するのではなく、低速のパラレルデータストリームを高速のシリアルデータストリームに変換してから元に戻すSERDES(シリアライザ/デシリアライザ)と呼ばれる専用ハードウェアがあることです。もう一方の端。32ビットのブロックで機能する場合、レートは200 MHz未満です。そして、そのデータは、プロセッサが関与することなく、SERDESとメモリ間でデータを自動的に移動するDMAシステムによって処理されます。プロセッサがしなければならないことは、データの場所、送信する量、および応答を配置する場所をDMAコントローラに指示することだけです。その後、プロセッサはオフになり、他の処理を実行できます。DMAコントローラは、ジョブが完了すると中断します。

また、CPUがほとんどの時間をアイドル状態で使用している場合、その時間を使用して、2番目の転送で実行される2番目のDMAとSERDESを開始できます。実際、1つのCPUがこれらの転送のかなりの数を並行して実行し、非常に健全なデータレートを提供できます。

OK、これは光学的というよりは電気的であり、あなたが尋ねたシステムよりも50,000倍遅いですが、同じ基本概念が適用されます。プロセッサは、大きなチャンクでのみデータを処理し、専用のハードウェアは小さなデータを処理し、一部の非常に特殊なハードウェアのみが一度に1ビットずつ処理します。次に、これらのリンクの多くを並行して配置します。


他の回答で示唆されているが、どこにも明示的に説明されていない、これへの1つの遅い追加は、ビットレートとボーレートの違いです。ビットレートはデータが送信されるレートであり、ボーレートはシンボルが送信されるレートです。多くのシステムでは、シンボルはバイナリビットで送信されるため、2つの数値は事実上同じであるため、2つの間で多くの混乱が生じる可能性があります。

ただし、一部のシステムでは、マルチビットエンコーディングシステムが使用されます。各クロック周期で0 Vまたは3 Vをワイヤに送信する代わりに、各クロックに0 V、1 V、2 Vまたは3 Vを送信する場合、シンボルレートは同じで、1クロックあたり1シンボルです。ただし、各シンボルには4つの可能な状態があるため、2ビットのデータを保持できます。これは、クロックレートを上げることなくビットレートが2倍になったことを意味します。

私が知っている現実世界のシステムでは、このような単純な電圧レベルスタイルのマルチビットシンボルを使用していません。現実世界のシステムの背後にある数学は非常に厄介になりますが、基本的な原則は同じです。可能な状態が3つ以上ある場合は、クロックあたりのビット数を増やすことができます。イーサネットとADSLは、ほとんどの最新の無線システムと同様に、このタイプのエンコーディングを使用する2つの最も一般的な電気システムです。@ alex.forencichが優れた回答の中で、使用された32-QAM(直交振幅変調)信号フォーマットについて尋ねたシステムについて述べたように、32個の異なるシンボルが送信されたシンボルあたり5ビットを意味します。


1
おかげで、@ Andrew、確かに、私の問題はシリアル処理とパラレル処理を考慮していないと考えた後、気付きました。そして、ここでDMAがどのように役割を果たしたかを読んで良かったです。まことにありがとうございます!
スティービー

1
「多くのシステムでは、シンボルはバイナリビットで送信されるため、2つの数値は事実上同じです」これには何らかの引用が必要だと思います。私は、各シンボルがいくつかのビットをエンコードする重要なデータレートではより一般的であるように思われるため、ボーレートはビットレートよりもはるかに低くなります。最近では、マルチGHz信号を処理する方法についてかなり良いアイデアを持っていますが、数百MHzの範囲の信号を処理する方が簡単です。レート。これにより、関連するデバイスの多くが簡素化されます。
CVn

自明でないデータレートでは、マルチビットシンボルがより一般的であることに同意します。ただし、人々が最初にデジタルシグナリングについて学習するときは、より古くて低速なものを最初に学習する傾向があり、それらは一般にすべてシンボルあたり1ビットです。そのため、「この種の質問をする人が以前に詳細なレベルで調べたほとんどのシステムでは」のようなものがより正確だと思います。そして正直に言うと、重要なデータレートリンクは、重要なリンクよりもはるかに多くあります。
アンドリュー

2
@PaulUszak複数のADCを並行して実行するため、その速度付近でADCが実行されることはありませんが、サンプルクロックをずらして効果的なサンプルレートを実現します。その後、何も非常に高速に実行する必要はありません。これは、スコープのサンプルメモリが少ないため、データリンクの状況とは少し異なります。そのメモリがいっぱいになると、サンプリングを停止し、プロセッサがデータをメインメモリにコピーする機会を得るまで待機します。そのプロセスはかなり遅くなる可能性があります。
アンドリュー

2
その100 GHz BW Lecroyスコープは、複数の手法(ダイプレクサー+ダウンコンバージョン、その後タイムインターリーブサンプリング)を使用して、非常に多数の低速ADCに信号を分割し、データをDRAMの大きなバンクにダンプするカスタム高速ASICに供給します。元の波形は、汎用CPU上でDSPを使用して再構築されます。サンプルメモリのサイズまで、小さなセグメントのみを再構築できます。100 GHz Lecroyスコープ(およびおそらく他のほとんどの高速スコープ)はPCIeを使用して制御コンピューターをADCおよびサンプルRAMに接続すると思います。
alex.forencich

60

特にhttp://www.nature.com/nphoton/journal/v8/n11/full/nphoton.2014.243.htmlを参照しているようです。それはここで読むことができます:https://www.researchgate.net/publication/269099858_Ultra-high-density_spatial_division_multiplexing_with_a_few-mode_multicore_fibre

この場合、「光信号」よりも少し複雑です。問題のリンクでは、複数の形式の並列処理を使用して、255 Tbpsの数値を実現しています。

  • 高密度波長分割多重化を使用して、50 GHz間隔(1550 nm Cバンドで約0.8 nm)で50の異なる波長をファイバーに詰め込み、それぞれがデータの1/50を伝送します。

  • 使用されるファイバーは、7 * 3 * 2 = 42の独立した(多かれ少なかれ)チャネルに対して、それぞれ2つの偏光を持つ、コアごとに3つのモードを持つ、カスタムメイドの7コア、少数モードファイバーです。ファイバーのセールスポイントは、コア間のアイソレーションが非常に良いことであるように思われるため、受信機は各コアのモードと偏波間のクロストークを個別に等化するだけで済みます(42x42ではなく7パラレル6x6)。

次に、すべての42 * 50チャネルで24.3 Gbaud 32-QAM信号形式(シンボルあたり5ビット、24.3 * 5 = 121.5 Gbps)を使用し、全体の帯域幅は0.1215 * 42 * 50 = 255.15 Tbpsでした。

さて、これらの人たちは実際にここで少しcheしました:彼らは50個のレーザーを取り、それらを一緒に多重化し、それを単一のIQ変調器で変調し、次に固定送信機を使用してエミュレートするために偏光と隣接チャンネルを固定遅延で非相関化します。したがって、実際には121.5 Gbpsの1つの信号であり、2100回並列に繰り返されます。そして、送信された信号はおそらく、オンザフライで生成され、メモリから読み出されるのではない単なる擬似ランダムバイナリシーケンス(PRBS)です。または、高性能の任意波形発生器の高速SRAMまたはDRAMアレイから読み取ることもできます。

受信側では、各コアのモードと偏波間のクロストークを補正し、エラー訂正を適用して元のデータを復元するためにデジタル信号処理が必要です。このペーパーでは、200 Tbpsネットの数値について言及しています。これは、伝送のためのエンコード前のデータレートになります(1000BASE-Xギガビットイーサネットがエンコード前1 Gbps、1.25 Gbps後、またはPCIeが2/4 / 7.877 Gbps前と同様)エンコーディングおよび2.5 / 5/8 Gbps以降)が、どのエンコーディングおよびフォワードエラー修正スキームが想定されているかは不明です。

また、実際の受信機を構築しなかったように見えますが、代わりにコヒーレント検出器を備えた2つの高速オシロスコープを使用して生データをキャプチャし、信号処理とイコライゼーションをオフラインで実行しています。また、各ファイバーコアから同時に3つのモードすべてでコヒーレント検出を実行する必要があったため、空想時間インターリーブキャプチャを行う必要がありましたが、利用できる高速オシロスコープは2つしかありませんでした。そして、そのセットアップでさえ、1ファイバーコアで1波長(729 Gbps)を受信できるのは短バーストのみです。

しかし、紙は実際のリンクではなく繊維に関するものであるため、これらはすべて問題ありません。

TL; DR:255 Tbpsの数値は少し誤解を招く可能性があります-彼らはそれが可能なトランシーバーを構築しませんでしたが、121.5 Gpbs信号の2100コピーと単一のレシーバーで作成したマルチコアファイバーを評価しました。


15

問題の特定の送信の詳細(@ alex.forencichがすでにかなり詳細に説明している)を無視すると、より一般的なケースを検討することがおそらく有用であると思われます。

この特定の伝送は、ファイバーを介して255 Tbpsに達しますが、非常に高速なファイバーリンクが既に通常使用されています。展開の数は正確にはわかりません(おそらくそれほど多くないでしょう) 。これは、このテストで実証されたよりも約3桁遅いですが、ほとんどの通常の測定では依然として非常に高速です。

それで、これはどのように行われますか?同じ手法の多くが使用されます。特に、「高速」ファイバー伝送を行うほとんどすべての場合、高密度波長分割多重(DWDM)が使用されます。これは、本質的に、それぞれが異なる波長の光を送信する(かなり)多数のレーザーから始めることを意味します。それらにビットを変調し、同じファイバーを介してすべてを送信しますが、電気的な観点からは、いくつかの完全に分離したビットストリームを変調器に供給し、出力を光学的にミキシングします。これらの異なる色の光は、同じファイバーを同時に通過します。

受信側では、光学フィルターを使用して色を再び分離し、フォトトランジスタを使用して個々のビットストリームを読み取ります。

ここに画像の説明を入力してください

入出力は7つしか示していませんが、実際のシステムでは何十もの波長を使用します。

送信側と受信側で何が必要かについては、バックボーンルーターが高価である理由があります。単一のメモリで帯域幅全体のほんの一部を供給するだけでよい場合でも、通常はかなり高速のRAMが必要です。ルーターのかなり高速な部分のかなりの部分がかなりハイエンドのSRAMを使用しているため、その時点でデータが送信されますコンデンサではなく、ゲート。

低速であっても(DWDMなどの物理的な実装に関係なく)、回路の最高速度の部分を少数の小さな部分に分離するのが伝統的であることはおそらく注目に値します。たとえば、XGMIIは、10ギガビット/秒のイーサネットMACとPHY間の通信を指定します。物理メディア上の伝送は毎秒10ギガビットを伝送するビットストリーム(各方向)ですが、XGMIIはMACとPHYの間の32ビット幅のバスを指定しているため、そのバスのクロックレートは約10 GHz / 32 = 312.5 MHz(まあ、技術的にはクロック自体は半分です。DDRシグナリングを使用するため、クロックの立ち上がりエッジと立ち下がりエッジの両方にデータがあります)。PHYの内部でのみ、誰もがマルチGHzクロックレートを処理する必要があります。もちろん、XGMIIだけがMAC / PHYインターフェースではありません。


詳しく説明してくれてありがとう、これはパズル全体の重要な部分です。
スティービー
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.