共分散がゼロに等しいと、バイナリ確率変数の独立性を意味しますか?


14

Xとが2つの可能な状態しかとれない2つのランダム変数である場合、が独立性を意味することをどのように示すことができますか?この種のことは、が独立性を意味しないということをその日に学んだことに反します...C o v X Y = 0 C o v X Y = 0YCov(X,Y)=0Cov(X,Y)=0

ヒントは、可能な状態としてとから開始し、そこから一般化することを示しています。そして、私はそれを行うことができ、を示すことができますが、これは独立性を意味しませんか?0 E X Y = E X E Y 10E(XY)=E(X)E(Y)

これを数学的にどのように行うか混乱しているようです。


それはあなたの質問の見出しが示唆するように、一般的に真実ではない..です
マイケル・R. Chernick

5
あなたが証明しようとしている声明は確かに真実です。場合X及びY WOTパラメータベルヌーイ・ランダム変数でありp1及びp2のそれぞれは、E[X]=p1E[Y]=p2。したがって、cov(X,Y)=E[XY]E[X]E[Y]0に等しい0場合にのみ、E[XY]=P{X=1,Y=1}に等しくp1p2=P{X=1}P{Y=1}ことを示す{X=1}及び{Y=1}であります独立 イベント。これは、標準の結果である、もしABは独立したイベントのペアであるため、A,Bc、およびAc,B、およびAc,Bc独立したイベント、つまりXおよびYは独立したランダム変数です。さあ、一般化しましょう。
ディリップサルワテ

回答:


23

バイナリ変数の場合、それらの期待値は1に等しい確率に等しくなります。したがって、

E(XY)=P(XY=1)=P(X=1Y=1)E(X)=P(X=1)E(Y)=P(Y=1)

2つの共分散がゼロの場合、これはE(XY)=E(X)E(Y)を意味します。

P(X=1Y=1)=P(X=1)P(Y=1)

独立したイベントに関する基本ルールを使用して(つまり、ABが独立している場合、それらの補数が独立しているなど)、他のすべてのジョイント確率が乗算されるのは簡単です。 2つのランダム変数が独立している。


2
簡潔でエレガント。上品!+1 = D
マルセロベンチュラ

9

相関と共分散は、与えられた2つの変数間の線形関連性を測定し、他の形式の関連性を検出する義務はありません。

そのため、これらの2つの変数は他のいくつかの非線形の方法で関連付けられている可能性があり、共分散(したがって相関)は独立したケースと区別できません。

非常に教訓的、人工の非現実的な例として、一つは考えることができXようにP(X=x)=1/3のためにx=1,0,1とも考えるY=X2。それらは関連付けられているだけでなく、一方が他方の機能であることに注意してください。それにもかかわらず、それらの共分散は共分散が検出できる関連に直交しているため、共分散は0です。

編集

実際、@ whuberで示されているように、上記の元の答えは実際には、両方の変数が必ずしも二分されていない場合、アサーションが普遍的に真ではない方法に関するコメントでした。私の悪い!

それでは、計算しましょう。(Barney Stinsonの「Suit up!」のローカル版)

具体的事例

両方の場合にXY二分した、あなたは両方とも値のみと仮定することを、一般性を失うことなく、想定することができる01任意の確率でpqおよびrで与えられる

P(X=1)=p[0,1]P(Y=1)=q[0,1]P(X=1,Y=1)=r[0,1],
完全の関節分布特徴付けるX及びY。@DilipSarwateのヒントを取り上げると、 P X = 0 Y = 1 なのでこれらの3つの値で共同分布を決定するのに十分であることに注意してください。(X,Y) (サイドノートでは、当然のことながら、Rが両方尊重するためにバインドされているPは-R[01]Q-R[01]及び1-P-Q-R[
P(X=0,Y=1)=P(Y=1)P(X=1,Y=1)=qrP(X=1,Y=0)=P(X=1)P(X=1,Y=1)=prP(X=0,Y=0)=1P(X=0,Y=1)P(X=1,Y=0)P(X=1,Y=1)=1(qr)(pr)r=1pqr.
rpr[0,1]qr[0,1]を超え R [ 0 1 ]と言うことであり、 rは[ 0 P Q 1 - P - Q ])。1pqr[0,1]r[0,1]r[0,min(p,q,1pq)]

ことを通知積に等しいかもしれないP Q = P X = 1 P Y = 1 レンダリングなり、XYのため、独立して P X = 0 Y = 0 r=P(X=1,Y=1)pq=P(X=1)P(Y=1)XY

P(X=0,Y=0)=1pqpq=(1p)(1q)=P(X=0)P(Y=0)P(X=1,Y=0)=ppq=p(1q)=P(X=1)P(Y=0)P(X=0,Y=1)=qpq=(1p)q=P(X=0)P(Y=1).

はい、等しいかもしれないのP 、Qしかしそれは、それが上に境界を尊重するように、異なっていてもよいです。rpq

さて、上記の共同分布から、

E(X)=0P(X=0)+1P(X=1)=P(X=1)=pE(Y)=0P(Y=0)+1P(Y=1)=P(Y=1)=qE(XY)=0P(XY=0)+1P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)E(X)E(Y)=rpq

Now, notice then that X and Y are independent if and only if Cov(X,Y)=0. Indeed, if X and Y are independent, then P(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=rpq=0; and, on the other hand, if Cov(X,Y)=0, then rpq=0, which is to say r=pq. Therefore, X and Y are independent.

General Case

About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,

P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then X and Y given by
X=XabaandY=Ycdc
would be distributed just as characterized above, since
X=aX=0,X=bX=1,Y=cY=0andY=dY=1.
So X and Y are independent if and only if X and Y are independent.

Also, we would have

E(X)=E(Xaba)=E(X)abaE(Y)=E(Ycdc)=E(Y)cdcE(XY)=E(XabaYcdc)=E[(Xa)(Yc)](ba)(dc)=E(XYXcaY+ac)(ba)(dc)=E(XY)cE(X)aE(Y)+ac(ba)(dc)Cov(X,Y)=E(XY)E(X)E(Y)=E(XY)cE(X)aE(Y)+ac(ba)(dc)E(X)abaE(Y)cdc=[E(XY)cE(X)aE(Y)+ac][E(X)a][E(Y)c](ba)(dc)=[E(XY)cE(X)aE(Y)+ac][E(X)E(Y)cE(X)aE(Y)+ac](ba)(dc)=E(XY)E(X)E(Y)(ba)(dc)=1(ba)(dc)Cov(X,Y).
So Cov(X,Y)=0 if and only Cov(X,Y)=0.

=D


1
I recycled that answer from this post.
Marcelo Ventura

Verbatim cut and paste from your other post. Love it. +1
gammer

2
The problem with copy-and-paste is that your answer no longer seems to address the question: it is merely a comment on the question. It would be better, then, to post a comment with a link to your other answer.
whuber

2
How is thus an answer to the question asked?
Dilip Sarwate

1
Your edits still don't answer the question, at least not at the level the question is asked. You write "Notice that r  not necessarily equal to the product pq. That exceptional situation corresponds to the case of independence between X and Y." which is a perfectly true statement but only for the cognoscenti because for the hoi polloi, independence requires not just that
(1)P(X=1,Y=1)=P(X=1)P(Y=1)
but also
(2)P(X=u,Y=v)=P(X=u)P(Y=v), u.v{0,1}.
Yes, (1)(2) as the cognoscenti know; for lesser mortals, a proof that (1)(2) is helpful.
Dilip Sarwate

3

IN GENERAL:

The criterion for independence is F(x,y)=FX(x)FY(y). Or

(1)fX,Y(x,y)=fX(x)fY(y)

"If two variables are independent, their covariance is 0. But, having a covariance of 0 does not imply the variables are independent."

This is nicely explained by Macro here, and in the Wikipedia entry for independence.

independencezero cov, yet

zero covindependence.

Great example: XN(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.


IN PARTICULAR (OP problem):

These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).

cov(X,Y)=E[XY]E[X]E[Y]=Pr(X=1Y=1)Pr(X=1)Pr(Y=1)Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).

This is equivalent to the condition for independence in Eq. (1).


():

E[XY]=domain X, YPr(X=xY=y)xy=0 iff x×y0Pr(X=1Y=1).

(): by LOTUS.


As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:

If events A and B are independent, then events Ac and B are independent, and events Ac and Bc are also independent.

Proof By definition,

A and B are independent P(AB)=P(A)P(B).

But B=(AB)+(AcB), so P(B)=P(AB)+P(AcB), which yields:

P(AcB)=P(B)P(AB)=P(B)P(A)P(B)=P(B)[1P(A)]=P(B)P(Ac).

Repeat the argument for the events Ac and Bc, this time starting from the statement that Ac and B are independent and taking the complement of B.

Similarly. A and Bc are independent events.

So, we have shown already that

Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
and the above shows that this implies that
Pr(X=i,Y=j)=Pr(X=i)Pr(Y=j),  i,j{0,1}
that is, the joint pmf factors into the product of marginal pmfs everywhere, not just at (1,1). Hence, uncorrelated Bernoulli random variables X and Y are also independent random variables.

2
Actually that's not an equivalent condition to Eq (1). All you showed was that fX,Y(1,1)=fX(1)fY(1)
gammer

Please consider replacing that image with your own equations, preferably ones that don't use overbars to denote complements. The overbars in the image are very hard to see.
Dilip Sarwate

@DilipSarwate No problem. Is it better, now?
Antoni Parellada

1
Thanks. Also, note that strictly speaking, you also need to show that A and Bc are independent events since the factorization of the joint pdf into the product of the marginal pmts must hold at all four points. Perhaps adding the sentence "Similarly. A and Bc are independent events" right after the proof that Ac and B are independent events will work.
Dilip Sarwate

@DilipSarwate Thank you very much for your help getting it right. The proof as it was before all the editing seemed self-explanatory, because of all the inherent symmetry, but it clearly couldn't be taken for granted. I am very appreciative of your assistance.
Antoni Parellada
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.