エントロピーは、システム内の不確実性の程度を示します。猫を探しているとしましょう。猫はあなたの家と近所の人の間にあり、1マイル先にあります。あなたの子供は、距離にいる猫の確率ことを教えてくれあなたの家からは、最高で記述されたベータ分布F (X ; 2 、2 )。猫はすなわち、0と1の間のどこかかもしれないが、より多くの可能性が真ん中にあるようにして、X mはX = 1 / 2。x f(x;2,2)xmax=1/2
ベータ分布を方程式にプラグインして、を取得します。H=−0.125
次に、妻に尋ねると、彼女はあなたの猫に関する彼女の知識を説明するのに最適な分布は均一な分布であると言います。エントロピー方程式にプラグインすると、ます。H=0
均一とベータ分布の両方が、猫はどこでもあなたの家から0と1マイルの間でもしましょう、しかし、あなたの妻は本当に猫が隠れている何の手掛かりを持っていないため、均一でより多くの不確実性は、あります、子供が持っている間、いくつかのアイデアを、彼らはそれがより多くのだと思います真ん中のどこかにいる可能性があります。それが、ベータのエントロピーがユニフォームのエントロピーよりも低い理由です。
あなたは多分あなたの隣人は猫がどちらかの家の近くにあることをするのが好きなので、彼のベータ分布はであるかを示します、他のディストリビューションを試してみてください。あなたは猫を探す場所についてのいくつかのアイデアを得るので、そのHは再びユニフォームのものより低くなければなりません。あなたの隣人の情報エントロピーがあなたの子供のものより高いか低いかを推測しますか?私はこれらの問題について子供たちにいつでも賭けるでしょう。α=β=1/2H
更新:
これはどのように作動しますか?これを考える1つの方法は、均一な分布から始めることです。最も不確実性の高いものであることに同意する場合は、それを妨害することを考えてください。簡単にするために離散的なケースを見てみましょう。テイク以下のように一点から、別のに追加:
P " 私は = のp - Δのp個のP " J = P + Δ pはΔp
p′i=p−Δp
p′j=p+Δp
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
This means that any disturbance from the uniform distribution reduces the entropy (uncertainty). To show the same in continuous case, I'd have to use calculus of variations or something along this line, but you'll get the same kind of result, in principle.
UPDATE 2:
The mean of n一様確率変数は確率変数そのものであり、ベイツ分布からのものです。CLTから、この新しいランダム変数の分散が次のように縮小することがわかります。n → ∞。そのため、その場所の不確実性は、n:猫が真ん中にいることは確実です。次のプロットとMATLABコードは、エントロピーが0からどのように減少するかを示していますn = 1 (均一分布)〜 n = 13。ここではdistributions31ライブラリを使用しています。
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'