分布の収束と確率の収束の直感的な説明


26

確率が収束する確率変数と分布が収束する確率変数の直感的な違いは何ですか?

私は数多くの定義と数学の方程式を読みましたが、それは本当に助けにはなりません。(覚えておいてください、私は計量経済学を勉強している大学生です。)

ランダム変数はどのようにして単一の数値に収束しますが、分布にも収束しますか?


1
「どのようにランダムな変数に収束し、単一の番号が、またに収束分布?」-RVが一般に単一の数値または全体の分布のいずれに収束するかを混乱させるかどうかを明確にすることからメリットが得られると思います(「単一の数値」が本質的に特殊なタイプの分布であることに気付いたら、謎はありません)または、1つのRVが1つの収束モードに従って定数に収束するが、別の収束モードに従って分布に収束する方法が混乱であるかどうか。
シルバーフィッシュ

1
@CloseToCのように、一方ではが「漸近的に正常」であると言われた回帰に出くわしたが、他方ではそれが真の収束すると言われたのだろうか。β ββ^β
シルバーフィッシュ

@Silverfish、私は実際に持っていません!
nicefella

回答:


25

乱数を定数に収束するにはどうすればよいですか?

ボックスにN個のボールがあるとしましょう。それらを一つずつ選ぶことができます。あなたがk個のボールを選んだ後、私はあなたに尋ねます:箱の中のボールの平均重量は何ですか?あなたの最良の答えは次のようになりˉ Xのk = 1Nkk k i = 1 xi。あなたはことを実現 ˉ X K自体はランダムな値でありますか?それはあなたが最初に選んだkボールに依存します。x¯k=1kki=1xix¯kk

今、あなたはボールを引いておく場合は、いくつかの点でボックス内に残されたボールは存在しないだろう、とあなたは受けるだろうˉ xは Nμをx¯Nμ

だから、私たちが持っていることは、ランダムな順序であるˉ のx 1... ˉ Xのk... ˉ X Nˉ X Nˉ X N...どの定数に収束ˉ X N = μ。したがって、確率の収束に関する問題を理解するための鍵は、特定の方法で構築された一連のランダム変数について話していることを認識することです。

x¯1,,x¯k,,x¯N,x¯N,x¯N,
x¯N=μ

次に、のは、一様乱数を取得してみましょう電子1E 2...、どこE I[ 0 1 ]。ランダムな順序で見てみましょうξ 1ξ 2...ξ kは = 1e1,e2,e[ 0 1 ]ξ1ξ2k12ki=1ei12ξkは、そのすべての条件がランダムな値であるため、ランダムな値です。私たちはされているものを予測することはできませんξkがあることになるだろう。しかし、それは我々がの確率分布と主張できることが判明したξkは標準正規のように、より多くなりますN01。それが分布の収束方法です。ξk= 1k12ki = 1e12ξkξkξkN0 1


1
Nに達した後の最初の例のランダム変数のシーケンスは何ですか?制限はどのように評価されますか?
ekvall

それは単なる直観です。、そう、あなたの推定無限のボックスを想像してみてˉ X収束への人口の平均μをバツ¯μ
アクサカル

21

この質問の読者が、ランダム変数はもちろんのこと、あらゆるものの収束についてどれだけの直観を持っているかは明らかではないので、答えが「非常に小さい」かのように書きます。役立つ可能性のあるもの:「ランダム変数がどのように収束するか」を考えるのではなくランダム変数のシーケンスがどのように収束するかを尋ねます。言い換えれば、それはただの変数ではなく、変数の(無限に長い!)リストであり、リストの後半のものは...何かに近づいています。おそらく単一の数字、おそらく全体の分布。直観を開発するには、「より近く」という意味を理解する必要があります。ランダム変数の収束のモードが非常に多いのは、いくつかのタイプの「

まず、実数のシーケンスの収束を要約しましょう。でR我々が使用できユークリッド距離を| x y | xyにどれだけ近いかを測定します。x n = n + 1を考えますR | xy|バツyn =1+1n個。次に、シーケンスx1バツn= n + 1n= 1 + 1nx 2X 3...を開始し 2 3バツ1バツ2バツ32435465そして、私はxn1に収束すると主張します。明らかにxn1近づいていますが、xn0.9に近づいていることも事実です。たとえば、3番目の用語以降では、シーケンス内の用語は0.9から0.5以下の距離になります。重要なのは、0.9ではなく1arbitrarily的に近づいていることです。シーケンス内の用語が0.9の0.05以内になることはありません2 32,43,54,65,xn1xn1xn0.90.50.910.90.050.9、その後の用語のためにその近くにとどまることは言うまでもありません。対照的に、X 20 = 1.05程度である0.05から1、およびそれ以降のすべての用語は、範囲内にある0.051以下に示すように、。x20=1.050.0510.051

(n + 1)/ nから1への収束

私はもっ​​と厳しくすることができ、需要条件は0.0011以内に収まり、この例ではN = 1000以降の条件に当てはまります。さらに、どんなに厳密でも(close = 0、つまり実際に1である項を除く)、最終的には条件|に関係なく、任意の近接度closeの固定しきい値を選択できますx nx | < εは:のために特定の用語(記号超えるすべての用語を満足するN > Nの値N0.0011N=1000ϵϵ=01|xnx|<ϵn>NN私が選んだϵの厳しさに依存します)。より高度な例については、条件が最初に満たされることに必ずしも興味があるわけではないことに注意してください-次の用語は条件に従わない可能性があり、シーケンスに沿ってさらに用語を見つけることができる限り、それは問題ありません条件は満たされ、後のすべての条件で満たされたままになります。これをx n = 1 + sin n )について説明しますϵn、これも1に収束し、ϵ=0.05で再び陰影が付けられます。xn=1+sin(n)n1ϵ=0.05

Convergence of 1 + sin(n)/n to 1

今考えるX U 0 1 とランダム変数のシーケンスX のn = 1 + 1をXU(0,1)nX。これは、X1=2XX2=3のRVのシーケンスですXn=(1+1n)XX1=2X2 XX3=4X2=32X3 Xなど。どのような意味でこれがX自体に近づいていると言えますか?X3=43XX

以来X N及びXは、ディストリビューションだけではなく、単一の番号、状態です| X nX | < εは今あるイベント:でも、固定用のn及びεこのたりかもしれないが発生しません。それが満たされる確率を考慮すると、確率の収束が生じます。用X N P X我々は補完的な確率たいP | X N - X |εをXnX|XnX|<ϵnϵXnpXP(|XnX|ϵ)-直感的に、確率X nは(少なくともによって多少異なるεに)X -十分に大きいため、任意に小さくなるように、N。固定用εこの全体に生じる確率の配列P | X 1 - X |ε P | X 2 - X |ε P | X 3 - X |XnϵXnϵP(|X1X|ϵ)P(|X2X|ϵ)ϵ そして、この確率のシーケンスがゼロに収束する場合(この例で起こるように)、 X nは確率で Xに収束します。確率限界はしばしば定数でなお:計量経済学における回帰に例えば、我々が見る PLIM β= β、我々はサンプルサイズを増やすように、N。しかし、ここで PLIM X N= X U 0 1 。事実上、確率の収束は、 XP(|X3X|ϵ)XnXplim(β^)=βnplim(Xn)=XU(0,1)n Xは特定の実現方法で大きく異なります。十分に大きい nを選択する限り、 X n X ϵよりも離れる確率を好きなだけ小さくすることができます。XnXXnXϵn

異なる意味X nは近いとなっXは、その分布がより多くの似ているということです。CDFを比較することでこれを測定できます。具体的には、いくつかの選択のxれるF XX = P X xが(この例では連続しているX U 0 1 そのCDFはどこにでも連続しており、いずれかのように、xが行いますが)とのCDFを評価X nのシーケンスがあります。これにより、別の確率のシーケンスが生成されます。XnXxFX(x)=P(Xx)XU(0,1)xXnP X 1X P X 2X P X 3X ...及びこの配列が収束 P X X X nのそれぞれについて xで評価されるCDFは、 xで評価される XのCDFに任意に近くなります。選択した xに関係なくこの結果が真である場合、 X nは次のように収束します。P(X1x)P(X2x)P(X3x)P(Xx)xXnXxxXnXX in distribution. It turns out this happens here, and we should not be surprised since convergence in probability to XX implies convergence in distribution to XX. Note that it can't be the case that XnXn converges in probability to a particular non-degenerate distribution, but converges in distribution to a constant. (Which was possibly the point of confusion in the original question? But note a clarification later.)

For a different example, let YnU(1,n+1n)YnU(1,n+1n). We now have a sequence of RVs, Y1U(1,2)Y1U(1,2), Y2U(1,32)Y2U(1,32), Y3U(1,43)Y3U(1,43), and it is clear that the probability distribution is degenerating to a spike at y=1y=1. Now consider the degenerate distribution Y=1Y=1, by which I mean P(Y=1)=1P(Y=1)=1. It is easy to see that for any ϵ>0ϵ>0, the sequence P(|YnY|ϵ)P(|YnY|ϵ) converges to zero so that YnYn converges to YY in probability. As a consequence, YnYn must also converge to YY in distribution, which we can confirm by considering the CDFs. Since the CDF FY(y)FY(y) of YY is discontinuous at y=1y=1 we need not consider the CDFs evaluated at that value, but for the CDFs evaluated at any other yy we can see that the sequence P(Y1y)P(Y1y), P(Y2y)P(Y2y), P(Y3y)P(Y3y), converges to P(Yy)P(Yy) which is zero for y<1y<1 and one for y>1y>1. This time, because the sequence of RVs converged in probability to a constant, it converged in distribution to a constant also.

Some final clarifications:

  • Although convergence in probability implies convergence in distribution, the converse is false in general. Just because two variables have the same distribution, doesn't mean they have to be likely to be to close to each other. For a trivial example, take XBernouilli(0.5)XBernouilli(0.5) and Y=1XY=1X. Then XX and YY both have exactly the same distribution (a 50% chance each of being zero or one) and the sequence Xn=XXn=X i.e. the sequence going X,X,X,X,X,X,X,X, trivially converges in distribution to YY (the CDF at any position in the sequence is the same as the CDF of YY). But YY and XX are always one apart, so P(|XnY|0.5)=1P(|XnY|0.5)=1 so does not tend to zero, so XnXn does not converge to YY in probability. However, if there is convergence in distribution to a constant, then that implies convergence in probability to that constant (intuitively, further in the sequence it will become unlikely to be far from that constant).
  • As my examples make clear, convergence in probability can be to a constant but doesn't have to be; convergence in distribution might also be to a constant. It isn't possible to converge in probability to a constant but converge in distribution to a particular non-degenerate distribution, or vice versa.
  • Is it possible you've seen an example where, for instance, you were told a sequence XnXn converged another sequence YnYn? You may not have realised it was a sequence, but the give-away would be if it was a distribution that also depended on nn. It might be that both sequences converge to a constant (i.e. degenerate distribution). Your question suggests you're wondering how a particular sequence of RVs could converge both to a constant and to a distribution; I wonder if this is the scenario you're describing.
  • My current explanation is not very "intuitive" - I was intending to make the intuition graphical, but haven't had time to add the graphs for the RVs yet.

16

In my mind, the existing answers all convey useful points, but they do not make an important distinction clear between the two modes of convergence.

Let XnXn, n=1,2,n=1,2,, and YY be random variables. For intuition, imagine XnXn are assigned their values by some random experiment that changes a little bit for each nn, giving an infinite sequence of random variables, and suppose YY gets its value assigned by some other random experiment.

If XnpYXnpY, we have, by definition, that the probability of YY and XnXn differing from each other by some arbitrarily small amount approaches zero as nn, for as small amount as you like. Loosely speaking, far out in the sequence of XnXn, we are confident XnXn and YY will take values very close to each other.

On the other hand, if we only have convergence in distribution and not convergence in probability, then we know that for large nn, P(Xnx)P(Xnx) is almost the same as P(Yx)P(Yx), for almost any xx. Note that this does not say anything about how close the values of XnXn and YY are to each other. For example, if YN(0,1010)YN(0,1010), and thus XnXn is also distributed pretty much like this for large nn, then it seems intuitively likely that the values of XnXn and YY will differ by quite a lot in any given observation. After all, if there is no restriction on them other than convergence in distribution, they may very well for all practical reasons be independent N(0,1010)N(0,1010) variables.

(In some cases it may not even make sense to compare XnXn and YY, maybe they're not even defined on the same probability space. This is a more technical note, though.)


1
(+1) You don't even need the XnXn to vary - I was going to add some detail on this to my answer but decided against it on length grounds. But I think it is a point worth making.
Silverfish

12

What I don't understand is how can a random variable converge to a single number but also converge to a distribution?

If you're learning econometrics, you're probably wondering about this in the context of a regression model. It converges to a degenerate distribution, to a constant. But something else does have a non-degenerate limiting distribution.

ˆβnβ^n converges in probability to ββ if the necessary assumptions are met. This means that by choosing a large enough sample size NN, the estimator will be as close as we want to the true parameter, with the probability of it being farther away as small as we want. If you think of plotting the histogram of ˆβnβ^n for various nn, it will eventually be just a spike centered on ββ.

In what sense does ˆβnβ^n converge in distribution? It also converges to a constant. Not to a normally distributed random variable. If you compute the variance of ˆβnβ^n you see that it shrinks with nn. So eventually it will go to zero in large enough nn, which is why the estimator goes to a constant. What does converge to a normally distributed random variable is

n(ˆβnβ)n(β^nβ). If you take the variance of that you'll see that it does not shrink (nor grow) with nn. In very large samples, this will be approximately N(0,σ2)N(0,σ2) under standard assumptions. We can then use this approximation to approximate the distribution of ˆβnβ^n in that large sample.

But you are right that the limiting distribution of ˆβnβ^n is also a constant.


1
Look upon this as "looking at ^βnβn^ with a magnifying glass", with magnification increasing with nn at the rate nn.
kjetil b halvorsen

7

Let me try to give a very short answer, using some very simple examples.

Convergence in distribution

Let XnN(1n,1)XnN(1n,1), for all n, then XnXn converges to XN(0,1)XN(0,1) in distribution. However, the randomness in the realization of XnXn does not change over time. If we have to predict the value of XnXn, the expectation of our error does not change over time.

Convergence in probability

Now, consider the random variable YnYn that takes value 00 with probability 11n11n and 11 otherwise. As nn goes to infinity, we are more and more sure that YnYn will equal 00. Hence, we say YnYn converges in probability to 00. Note that this also implies YnYn converges in distribution to 0.

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.