回答:
「情報の内容が同じままである可能性がある」と言うとき、総信号の情報ですか、それとも目的の信号の情報ですか?うまくいけば、これで両方のケースに答えられるでしょう。私はコルノンゴロフよりもシャノンのエントロピーをよく知っているので、それを使用しますが、うまくいけば論理が翻訳されることを願っています。
レッツは言うあなたの全信号(あるご希望信号の合計からなる)、およびあなたのノイズ成分を。エントロピーと呼びましょう。あなたが言ったように、ノイズは複雑さを増すことでシステムにエントロピーを追加します。ただし、それは必ずしも信号の情報内容が不確実だからというだけでなく、信号全体の不確実性が大きいためです。SNRの種類ががどれだけ確かであるかを測定する場合、種類はどの程度うまく将来の状態を予測できるかを測定しますX S N H S H (X )X X現在の状態に基づいて、。エントロピーは、ノイズと非ノイズの構成に関係なく、信号全体がどれほど複雑であるかを考慮します。
ノイズを除去して(減衰させて)SNRを上げると、総信号の複雑度、したがってエントロピーが減少します。によって運ばれた情報は失われていませんによって運ばれた(おそらく無意味な)情報だけです。場合ランダムノイズであり、その後、明らかにそれは意味のある情報を運ばないが、それは説明するために情報の一定量を取りX S N N N Nは、であることができることは状態の数によって決定される、の状態を、その確率はですそれらの状態のそれぞれ。それがエントロピーです。
異なる分散を持つ2つのガウス分布を見ることができます。たとえば、1つの分散がで、もうつの分散がます。ガウス分布の方程式を見ると、分布の最大確率は、 distrの確率の値の番目だけであることがわかります。逆に、これは、 distrが平均以外の値を取る可能性が高いこと、または分布が平均に近い値を取ることの確実性が高いことを意味します。そのため、分布は、よりもエントロピーが低くなります。100 V a r = 100 1 var=1Var=100Var=1Var=1Var=100 分布。
分散が大きいほどエントロピーが高いことを意味します。エラーの伝播を見ると、(独立した、等しいであることも事実です。もしは、エントロピーのために、。以来、(間接的に)分散の関数であり、我々は物事を言って少しごまかすことができ。簡略化するために、とは独立しているため、と言います。SNRの改善は、多くの場合、ノイズパワーの減衰を意味します。SNRの高いこの新しい信号は、X Y X = S + N H H (X )= H (S + N )H H (V a r [ X ] )= H (V a r [ S +S N H (V R [ X ] )= H (V R [ S ] + V R [ N ] )X = S + (1k>1H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N]Var[N]Var[S+N]になります。。エントロピーは。。はより大きいため、Nが減衰するとは減少します。場合減少し、そう、したがってが低下、
あまり簡潔ではありません、ごめんなさい。つまり、SNRを上げるとのエントロピーは減少しますが、の情報には何もしません。現在、ソースを見つけることはできませんが、SNRと相互情報(エントロピーに似た2変量測定)を相互に計算する方法があります。主なポイントは、SNRとエントロピーが同じものを測定しないことです。