コーディング理論では、「コードがどれほど優れているか」とは、コードが処理できる最大ノイズレベル、つまりより適切に修正できるチャネルエラーの数を意味します。
より良いコードを取得するために、コードは(2進数ではなく)大きなアルファベットを使用して設計されています。そして、このコードは、誤りの多い「シンボル」を大量に処理できる場合に適しています。
なぜこれは浮気を考慮しないのですか?つまり、各シンボルをバイナリ文字列に「変換」したときに何が起きるかだけを気にすべきではないでしょうか。「ビットエラーの発生率」は「シンボルエラー」の発生率とは異なります。たとえば、ビットエラーのレートは1/2を超えることはできませんが(これを正しく理解している場合)、十分に大きなアルファベットを使用すると、シンボルエラーは最大ます。これは、ビットを変更するのではなく「シンボル」のみを変更するようにチャネルを人工的に制限しているためですか、それともコードが実際に優れているためですか?