和のエントロピーについて


12

2つの独立した離散確率変数XYの合計のエントロピーの限界を探しています。当然のことながら、H X + Y H X + H Y * ただし、の和に適用されるN個の独立したベルヌーイ・ランダム変数Z 1... ZはN、これは得られる H Z 1 +H(X+Y)XY

H(X+Y)H(X)+H(Y)      ()
nZ1,,Znすなわち、結合はして直線的に成長する nは繰り返し適用される場合。ただし、 Z 1 + Z nはサイズ nのセットでサポートされるため、エントロピーは最大で log nです。実際には、中心極限定理により、私は推測している H Z 1 + + Z N1 / 2 ログ
H(Z1+Z2++Zn)nH(Z1)
nZ1+Znnlognは基本的に一連のサイズでサポートされているためH(Z1++Zn)(1/2)lognn

つまり、この状況では境界がかなりオーバーシュートします。このブログ投稿を熟読することでH X + Y )のあらゆる種類の境界が可能になります。ベルヌーイ確率変数の合計に繰り返し適用されたときに正しい漸近(または、少なくとも、より合理的な漸近)を与える境界はありますか?()H(X+Y)


2
あなたが本当に何を求めているのか分かりません。任意の2つの独立した離散確率変数XおよびYに適用可能なH(X)およびH(Y)に関してH(X + Y)の上限が必要な場合、H(X + Y)≤H(X )+ H(Y)が明らかに最高です。xがXのサポートを超え、yがYのサポートを超えている場合、合計x + yがすべて異なる場合を考えます。この一般的な境界を非常に特殊なケースに適用すると、緩いバインド。
伊藤剛

1
@TsuyoshiIto -まあ、素晴らしいことだ答えのための一つの可能性のような不平等であるマイナス後の用語は、あなたが記述する場合にはゼロであり、ベルヌーイ確率変数の合計の場合、nでより良いスケーリングを与えるために合計しますH(X+Y)H(X)+H(Y)n
...-ロビンソン

1
...のような不等式の有無ように私には思えるそれを作る少なくとももっともらしいが、私が探しています答えが存在していること。H(X+Y)3H(XY)H(X)H(Y)
ロビンソン

2
つまり、探しているのは、H(X)およびH(Y)に関して H(X + Y)の上限ではないということです。質問を編集してください。
伊藤剛

1
私は、それぞれの分散の場合で考えると比較して小さいnは、あなたの推測が正しい答えである、とベリー・Esseenの定理を使って正確にするために難しいことではありませんZin
Sashoニコロフ

回答:


19

そのような質問については、「フラットな」ランダム変数を考えることで正しい直感を得ることができます。つまり、はサイズ2 H X )のセットA上の均一分布、Yはサイズ2 H Y )のセットB上の均一分布と考えてください。XA2H(X)YB2H(Y)

だから、あなたが求めている質問ですあなたのサイズについて言うことができるもの(大まかに)と比較して| A | | B | 。一般的に(例えば、彼らはランダムに設定した場合)、その後、実際にあなたが持っているでしょう| A + B | | A | | B | 先の対応するH X + Y H X + H Y |A+B||A||B||A+B||A||B|H(X+Y)H(X)+H(Y)

いくつかの特別なケースがあります、最も顕著なのは、ABが区間(またはより一般的には算術的進行)である場合です。(少なくとも特定の条件下で、| A + B |ができる限り小さい場合)という結果がいくつかありますが、これが唯一のケースです。研究、このような質問は「添加剤組合せ論」、およびいくつかの結果として知られていること面積は、そのグループ内の風味を持っているG + であれば| A +|A+B||A||B|AB|A+B|(G,+)|A+B|=O(|A|+|B|)A,BG

A[a..b]B[0..c] (in fact, if don't try to take advantage of concentration and shoot for a (1/2)logn entropy bound, one would have c=1 and a=0 and b=k for k=1,...,n1 as you apply this repeatedly, however actually this will be more like akk , bk+k). Obviously in this case |A+B||A|+c, but I'm not sure if there is a more general bound this falls from as a special case.


5

I believe this paper by Harremoes proves that if you take a sum of n Bernoulli random variables Z1,Z2,...,Zn, each with parameter p then then entropy of Z1+Z2+...+Zn is less that the entropy of a Poisson distribution with the mean np. From a quick look at Wikipedia, it seems that for large values of np the entropy of a Poisson is 12logn+O(logn), which is what you expect.


0

Maybe you could use the Equation:

H(Z1+Z2++Zn)=H(Z1)+H(Z2)++H(Zn)H(Z1|Z1+Z2++Zn)H(Z2|Z2+Z3++Zn)H(Zn1|Zn1+Zn)

This would look like a term you mentioned in the comments, unfortunately i don't know of results about the cardinality of the negative terms or insightful bounds on them.

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.