従属変数の合計の平均をどのようにして見つけるのですか?


13

独立変数の合計の平均は、各独立変数の平均の合計であることを知っています。これは従属変数にも当てはまりますか?


@feetwet、「感謝」を削除するだけでは、18か月前からスレッドを増やすほど重要ではありません。FWIW、私はこの編集を拒否することを票決しました(しかし、他の2人は承認したので、そうでなければ私のコメントを見ることはないでしょう)。
GUNG -復活モニカ

1
@gung-あらゆる種類のものが「アクティブ」な質問ビューを混乱させる可能性があります。あなたの観察は頻繁に行われていますが、スタック交換ポリシーによれば、その欠点にもかかわらず、有効なマイナーな編集は良いことです。
フィートウェット

1
@ feetwet、meta.Photographyの投稿がどれほど関連しているかはわかりません。各SEサイトには独自のメタがあり、コミュニティによって決定された独自のポリシーがあります。関連するmeta.CVスレッドを見てください。たとえば、次のようになります:投稿に対する「提案された編集」の処理。あなたはwhuberの答えを引用することに気付くかもしれません。ジェフ・アトウッドは、「投稿から敬礼だけを削除するような、ちょっとした編集[...]。編集が小さすぎると、質問の年齢に反比例します」。
GUNG -復活モニカ

1
@gung 写真投稿では、このテーマに関する重要かつ最新のMeta Stack Exchange Q&Aへのリンクを参照しました。しかし、whuberの4歳の答えがCross Validatedにとってまだ標準的なものである場合、今後もそれを尊重します。
フィートウェット

回答:


18

期待(平均を取る)は線形演算子です。

これは、特に、独立しているかどうかに関係なく、2つのランダム変数XおよびY(期待値が存在する)のE(X+Y)=E(X)+E(Y)であることを意味しますXY

各期待値EX iが存在する限り、E n i = 1 X i = n i = 1 EX i)になるように一般化できます(例えば帰納法によりE(i=1nXi)=i=1nE(Xi)E(Xi)

そのため、変数が従属している場合でも、合計の平均は平均の合計と同じです。ただし、これは分散には適用されないことに注意してください!つつVar(X+Y)=Var(X)+Var(Y)独立変数、またはであっても変数の依存性が、無相関、一般式はVar(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)ここで、Covは変数の共分散です。


10

TL; DR:
それが存在すると仮定すると、平均は期待値であり、期待値は積分であり、積分は合計に関して線形性を持ちます。

TS; DR:
ランダム変数の合計、すなわちそれらの多くの関数を扱っているため、合計E Y nの平均はそれらの共同分布(我々は、すべての手段)を示す存在し、有限であると仮定Xを多変量ベクトルのN RVのは、共同密度は次のように書くことができるF XX= F X 1XYn=i=1nXiE(Yn)XnfX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

E[Yn]=DYnfX(x)dx

n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

and using the linearity of integrals we can decompose into

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

For each n-iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

and in general

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjxjSXn...SXj1SXj+1...SX1fX1,...,Xn(x1,...,xn)dx1...dxj1dxj+1......dxndxj

As we calculate one-by-one the integral in each n-iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each n-iterative integral therefore will end up as SXjxjfXj(xj)dxj.

Bringing it all together we arrive at

E[Yn]=E[i=1nXi]=SX1x1fX1(x1)dx1+...+SXnxnfXn(xn)dxn

But now each simple integral is the expected value of each random variable separately, so

E[i=1nXi]=E(X1)+...+E(Xn)
=i=1nE(Xi)

Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.


@ssdecontrol This is one upvote I do appreciate, indeed.
Alecos Papadopoulos

1
The expansion into iterated integrals and back again is unnecessary. It complicates a simple argument. You could replace the "TS;DR" section with its last sentence and have a fine answer.
whuber

@whuber One and a half years later, it still escapes me (I mean, without using the "linearity of the expectation operator" fact, that has already been used by the other answer). Any hint so I can rework the answer towards this simple argument?
Alecos Papadopoulos

I think the argument is superfluous. The key to the whole thing is your observation in the last sentence.
whuber
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.