エラー修正率は誤解を招く


10

コーディング理論では、「コードがどれほど優れているか」とは、コードが処理できる最大ノイズレベル、つまりより適切に修正できるチャネルエラーの数を意味します。

より良いコードを取得するために、コードは(2進数ではなく)大きなアルファベットを使用して設計されています。そして、このコードは、誤りの多い「シンボル」を大量に処理できる場合に適しています。

なぜこれは浮気を考慮しないのですか?つまり、各シンボルをバイナリ文字列に「変換」したときに何が起きるかだけを気にすべきではないでしょうか。「ビットエラーの発生率」は「シンボルエラー」の発生率とは異なります。たとえば、ビットエラーのレートは1/2を超えることはできませんが(これを正しく理解している場合)、十分に大きなアルファベットを使用すると、シンボルエラーは最大ます。これは、ビットを変更するのではなく「シンボル」のみを変更するようにチャネルを人工的に制限しているためですか、それともコードが実際に優れているためですか?1ϵ


1
伝送媒体/テクノロジーがさらに多くを処理できる場合、なぜバイナリコードに制限するのですか?
ラファエル

@Raphael非バイナリシンボルを処理する実際のテクノロジーのいくつかの実際的な例でポイントを正当化し、それを回答として投稿できれば、助かります。
M.アラグガン

@ M.Alaggan:私はこれについての専門家ではありません。ウェーブキャリアで0/1をエンコードできれば、さらに多くのシンボルをエンコードでき、時間間隔でより多くの情報を送信できます。現代のテクノロジーがこれを行わない場合(コード多重化を考えると)は驚きますが、具体的な例を挙げることはできません。
ラファエル

@Raphael私は正しいと思います。現在のデジタル通信チャネルは、より大きなシンボルで機能しますが、たとえば、シンボルあたり256ビット以下です(これはワイヤレスでは非常にまれですが、ケーブルでは一般的です)。ただし、シンボルサイズは非常に小さいサイズに制限されており、(実際には)自由に拡大することはできません。
ランG.

回答:


8

バイナリデータに広く使用されているコードの多くは、連結コードで、 2つのエラー修正コードを使用して構成されています。内部コードは、バイナリアルファベット上で、外符号は、その符号内符号の符号語に対応するアルファベットの上にあります。これにより、より大きなアルファベットサイズの優れた能力を使用して、「チート」することなくバイナリメッセージをエンコードできます。

最小距離の標準的な定義は、連結コードを検討するときや、大きなアルファベットサイズのコードの理論で使用するのに自然なものです。これらの数値を使用してバイナリコードを、内部コードも使用せずにバイナリ入力をエンコードする大きなアルファベットのコードと比較した場合にのみ、「不正行為」になります。コーディング理論家はこれを行わないほど賢いです(そして私は連結コードが発明されて以来、大きなアルファベットのコードがしばしば内部コードと一緒に使用されてきたと信じていますCDとして。多数の連続したビットエラーは、少数の「シンボル」にのみ影響を与えるためです。


ピーター、答えてくれてありがとう。連結されたコードの場合、(ビット)エラー率が1/2を超えてはいけないというのは本当ではありませんか?したがって、この方法では、デコードを効率的に保ちながら、1/2に近づけることができます。
Ran G.

@Ran:バイナリコードの場合、ビットエラーレートは1/2を超えることはできません。連結コードはバイナリである必要はありません。しかし、それはつまらないことです。あなたのコメントは本質的に正しいです。
Peter Shor 2014年
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.