エントロピーは場所と規模にどのように依存しますか?


13

密度関数連続分布のエントロピーは、期待値の負になるように定義されているため、等しいflog(f),

Hf=log(f(x))f(x)dx.

また、分布が密度ランダム変数はエントロピーがあると言います (この積分は、がゼロの場合でも明確に定義され。なぜなら、はそのような値でゼロに等しくなることができるからです。)XfHf.flog(f(x))f(x)

場合及びランダム変数である(一定である)、のバージョンであると言われているだけシフト 同様に、(は正の定数)の場合、Y\ sigmaでスケーリングされたXのバージョンと言われますスケールとシフトを組み合わせると、Y = X \ sigma + \ muになります。XYY=X+μμYX μ.Y=XσσYX σ.Y=Xσ+μ.

これらの関係は頻繁に発生します。たとえば、Xの測定単位を変更すると、Xがシフトおよびスケーリングされます。

Y=Xσ+μのエントロピーはXのエントロピーとどのように関連していX?

回答:


16

確率要素のでXであるf(x)dx,変数の変化y=xσ+μと等価であるx=(yμ)/σ,そこから

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

したがって、Yの密度は

fY(y)=1σf(yμσ).

その結果、Yのエントロピーは

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

これは、可変バックを変更する際にx=(yμ)/σ,生成します

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

これらの計算では、対数の基本特性、積分の線形性、およびf(x)dxが単一性に積分されるという事実全確率の法則)を使用しました。

結論は

エントロピーY=Xσ+μのエントロピーであるXプラスlog(σ).

変数(スケーリングしながら言葉で、そのエントロピーを変更しない確率変数をシフトする、(我々はなく、これらの値が発生した場合に、確率密度の値に応じて、エントロピーを考えることができる)は、用σ1 "エントロピーをlog(σ).増加させます これは、高エントロピー分布が低エントロピー分布よりも「広がっている」という直感をサポートします。


この結果の結果として、任意の分布のエントロピーを計算するときに、μσ便利な値を自由に選択できます。たとえば、正規(μ,σ)分布のエントロピーは、μ=0およびσ=1.設定することで見つけることができますこの場合の密度の対数は

log(f(x))=12log(2π)x2/2,

どこから

H=E[12log(2π)X2/2]=12log(2π)+12.

従って通常のエントロピー(μ,σ)分布を追加するだけで得られるlogσ与え、この結果に

H=12log(2π)+12+log(σ)=12log(2πeσ2)

ウィキペディアによって報告されたように。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.