確率要素のでXであるf(x)dx,変数の変化y=xσ+μと等価であるx=(y−μ)/σ,そこから
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
したがって、Yの密度は
fY(y)=1σf(y−μσ).
その結果、Yのエントロピーは
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
これは、可変バックを変更する際にx=(y−μ)/σ,生成します
H(Y)=−∫∞−∞log(1σf(x))f(x)dx=−∫∞−∞(log(1σ)+log(f(x)))f(x)dx=log(σ)∫∞−∞f(x)dx−∫∞−∞log(f(x))f(x)dx=log(σ)+Hf.
これらの計算では、対数の基本特性、積分の線形性、およびf(x)dxが単一性に積分されるという事実(全確率の法則)を使用しました。
結論は
エントロピーY=Xσ+μのエントロピーであるXプラスlog(σ).
変数(スケーリングしながら言葉で、そのエントロピーを変更しない確率変数をシフトする、(我々はなく、これらの値が発生した場合に、確率密度の値に応じて、エントロピーを考えることができる)は、用σ≥1 "エントロピーをlog(σ).増加させます)。 これは、高エントロピー分布が低エントロピー分布よりも「広がっている」という直感をサポートします。
この結果の結果として、任意の分布のエントロピーを計算するときに、μとσ便利な値を自由に選択できます。たとえば、正規(μ,σ)分布のエントロピーは、μ=0およびσ=1.設定することで見つけることができます。この場合の密度の対数は
log(f(x))=−12log(2π)−x2/2,
どこから
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
従って通常のエントロピー(μ,σ)分布を追加するだけで得られるlogσ与え、この結果に
H=12log(2π)+12+log(σ)=12log(2πeσ2)
ウィキペディアによって報告されたように。