有限分散と無限分散の違いは何ですか


33

有限分散と無限分散の違いは何ですか?私の統計知識はかなり基本的です。ウィキペディア/グーグルはここではあまり役に立ちませんでした。


8
無限の分散を持つ分布は、裾が大きくなります。多くの異常値があり、表示に使用されるものとは異なるプロパティを持つことができます。たとえば、コーシー分布から抽出されたサンプルのサンプル平均は、個々のサンプルと同じ(コーシー)分布を持ちます。これは、サンプル平均が個々のサンプルよりも優れた「推定器」であるという通常の信念とはまったく異なります。
ディリップサーワテ14

4
いいえ、太い尾は無限の分散を持つのと同じではありません。少なくとも私の意見ではありません。ただし、私は統計学者ではありませんので、このフォーラムで高ランクのユーザーからのより信頼できる回答を待つ必要があります。
ディリップサーワテ14

4
無限分散は、母集団の分散を定義する積分(合計)が、制限が取られるときに有限境界を超えて増加するときに発生します。ここ
グレン_b-モニカの復活2014

2
最も重要なことは、ほとんどの中心極限定理がそのような集団に対して成り立たないため、いくつかの一般的な結果が崩壊することです。
Henry.L

1
重要なポイント:の分散あれば人口は無限であるが、分散のサンプルは同様のサンプル統計使用して母集団の分散や標準偏差のいずれかの推定、その後、有限である、またはSを、そしてSs2sはかなり偏っています。非常に多くのテスト統計は、効果の推定標準誤差で正規化された効果の測定値に基づいているため、また多くのCIは推定標準誤差によるスケーリングに基づいているため、無限分散の変数に関する統計的推定は、かなり偏っているsn
アレクシス

回答:


48

ランダム変数が「無限分散」を持つとはどういう意味ですか?ランダム変数に無限の期待があるとはどういう意味ですか?両方の場合の説明はかなり似ているので、期待の場合から始めて、それから分散します。

レッツ連続確率変数(RV)(私たちの結論が和で積分を置き換える、個別のケースのために、より一般的に有効になります)こと。簡素化博覧会に、想定することができますX 0XX0

その期待値は、積分により定義される 、その積分が存在する場合、つまり有限です。それ以外の場合、期待は存在しないと言います。すなわち、不適切一体である、と定義することによるものである 0 X F X

EX=0xf(x)dx
その制限が有限で、尾からの寄与があること、消える必要がありますされるために、私たちは持っている必要があります LIM A A X F X
0xf(x)dx=lima0axf(x)dx
それは場合であるために必要な(しかし、十分ではない)条件である LIM X X F X = 0。上記の表示された条件が言うことは、(右)尾からの期待への貢献消えていなければならないということです。そうでない場合、期待は、任意の大きな実現値からの寄与によって支配されます。実際には、経験的手段は非常に不安定になることを意味します。なぜなら、それらはまれに発生する非常に大きな実現値に支配されるからです。
limaaxf(x)dx=0
limxxf(x)=0。そして、サンプルのこの不安定性は、大きなサンプルでは消えないことに注意してください---それはモデルの組み込み部分です!

多くの状況では、それは非現実的です。(生命)保険モデルを例にとると、(人間の)寿命をモデル化します。たとえば、X > 1000は発生しませんが、実際には上限のないモデルを使用します。その理由は明らかです:厳しい上限が知られていない、人が(たとえば)110歳の場合、もう1年生きられない理由はありません!そのため、上限が厳しいモデルは人工的なもののようです。それでも、極端なアッパーテールに大きな影響を与えたくありません。XX>1000

期待値が有限である場合、モデルに過度の影響を与えずに、ハードな上限を持つようにモデルを変更できます。あいまいな上限がある状況では、それが適切と思われます。モデルに無限の期待がある場合、モデルに導入する厳しい上限は劇的な結果になります!それが無限の期待の真の重要性です。X

有限の期待で、上限について曖昧になります。無限の期待で、私たちはできません

これで、無限分散についても必要な変更を加えて、ほぼ同じことが言えます。

明確にするために、例を見てみましょう。この例では、Rパッケージ(CRANで)でpareto1として実装されたパレート分布を使用します。パレート分布は、パレートタイプ1分布としても知られる単一パラメータパレート分布です。これは、で与えられる確率密度関数持つ いくつかのパラメータについてのM>0α>0α>1の場合、期待値が存在し、αで与えられます

f(x)={αmαxα+1,xm0,x<m
m>0,α>0α>1。ときα1つの期待が存在しない、あるいは我々が言うように、積分は、それが無限大に発散定義するので、それは、無限です。私たちは、定義することができまずモーメント分布(ポストを参照してください、我々は?tantilesと内側ではなく、分位値と中央値を使用した場合 など、いくつかの情報と参考文献のための) EをM= M メートル XFXαα1mα1 (これは予想自体が存在する場合に関係なく存在します)。(後の編集:「最初の瞬間の分布」という名前を発明しましたが、後でこれが「公式に」部分的な瞬間の名前に関連していることを知りました)。
E(M)=mMxf(x)dx=αα1(mmαMα1)

期待値が存在する場合()、 E r M = E m / E = 1 mα>1 場合αは期待「はかろうじて存在する」ように、1より少し大きい、期待を定義積分は徐々に収束します。m=1α=1.2の例を見てみましょう。次に、Rを使用してErMをプロットします。

ErM=Em/E=1mMα1
αm=1α=1.2ErM
### Function for opening new plot file:
open_png  <-  function(filename) png(filename=filename,
                                     type="cairo-png")

library(actuar) # from CRAN
### Code for Pareto type I distribution:
# First plotting density and "graphical moments" using ideas from http://www.quantdec.com/envstats/notes/class_06/properties.htm   and used some times at cross validated

m  <-  1.0
alpha <- 1.2
# Expectation:
E   <-  m * (alpha/(alpha-1))
# upper limit for plots:
upper  <- qpareto1(0.99, alpha, m)   
#
open_png("first_moment_dist1.png")
Er  <- function(M, m, alpha) 1.0 - (m/M)^(alpha-1.0)
### Inverse relative first moment distribution function,  giving
#   what we may call "expectation quantiles":
Er_inv  <-   function(eq, m, alpha) m*exp(log(1.0-eq)/(1-alpha))     

plot(function(M) Er(M, m, alpha), from=1.0,  to=upper)
plot(function(M) ppareto1(M, alpha, m), from=1.0,  to=upper, add=TRUE,  col="red")
dev.off()

このプロットを生成します:

ここに画像の説明を入力してください

μα>2

上で定義された関数Er_invは、分位点関数に類似した逆相対1次モーメント分布です。我々は持っています:

> ### What this plot shows very clearly is that most of the contribution to the expectation come from the very extreme right tail!
# Example   
eq  <-  Er_inv(0.5, m, alpha)
ppareto1(eq, alpha, m)
eq

> > > [1] 0.984375
> [1] 32
> 

μn=5

set.seed(1234)
n  <-  5
N  <-  10000000  # Number of simulation replicas
means  <-  replicate(N,  mean(rpareto1(n, alpha, m) ))


> mean(means)
[1] 5.846645
> median(means)
[1] 2.658925
> min(means)
[1] 1.014836
> max(means)
[1] 633004.5
length(means[means <=100])
[1] 9970136

読み取り可能なプロットを取得するために、100未満の値を持つサンプルの一部のヒストグラムのみを表示します。これはサンプルの非常に大きな部分です。

open_png("mean_sim_hist1.png")
hist(means[means<=100],  breaks=100, probability=TRUE)
dev.off()

ここに画像の説明を入力してください

算術平均の分布は非常にゆがんでいます。

> sum(means <= 6)/N
[1] 0.8596413
> 

経験的平均のほぼ86%は、理論平均である期待値以下です。 平均への寄与のほとんどは、ほとんどのサンプルでは表されていない極端な上部テールからのものであるため、これが予想されるべきです

以前の結論を再評価するために戻る必要があります。平均の存在は上限についてファジーになることを可能にしますが、積分がゆっくり収束することを意味する「平均がかろうじて存在する」場合、上限について本当にファジーになることはありませんゆっくりと収束する積分は、期待が存在すると仮定しない方法を使用する方が良いかもしれないという結果をもたらします。積分が非常にゆっくり収束している場合、実際にはまったく収束していないかのようになります。収束積分から得られる実際的な利点は、ゆっくり収束する場合のキメラです!これは、http: //fooledbyrandomness.com/complexityAugust-06.pdfのNN Talebの結論を理解する1つの方法です


2
素晴らしい答え。
カール

2

分散は、ランダム変数の値の分布の分散の尺度です。これはそのような唯一の尺度ではありません。例えば、平均絶対偏差は代替手段の1つです。

無限の分散とは、ランダムな値が平均値にあまり厳密に集中しない傾向があることを意味します。それは、次の乱数が平均から非常に遠くなる十分に大きな確率があることを意味する可能性があります。

正規(ガウス)のような分布は、平均から非常に離れた乱数を生成できますが、そのようなイベントの確率は、偏差の大きさによって非常に急速に減少します。

その点で、コーシー分布またはガウス(正規)分布のプロットを見ると、視覚的には大きく異なっていません。ただし、コーシー分布の分散を計算しようとすると、ガウス分布は有限ですが、分散は無限になります。そのため、正規分布はコーシーの分布と比較してその平均値をより厳密にしています。

ところで、数学者と話をするなら、コーシー分布には明確な平均がなく、無限であると主張するでしょう。これは、コーシーの対称性、したがって、平均値を持っていることを指摘した物理学者にとってはばかげているように聞こえます。この場合、問題はコーシーの分布ではなく、平均の定義にあると主張します。


2
数学者と物理学者については確かですか?私の印象では、物理学者はそのようなことについて非常に厳格である可能性があります!私の答えをご覧ください。収束が遅いと価値がほとんどありません!また、数学者はコーシーに無限の平均があるとは言いません。積分を定義する適切な限界は、両方の尾で発散するため、単に存在しません。期待されることについて話す または 分岐が片側のみにある場合にのみ意味があります。
kjetil bハルヴォルセン

1
@kjetilbhalvorsen、「数学者はコーシーには無限の平均があるとは言わないだろう」-その平均が十分に定義されていないことは、統計学教授から言われたこととまったく同じです。 「もちろんそれはゼロであり、同意しない場合は平均の定義に何か問題があります」
-Aksakal

彼の平均の定義について尋ねましたか?
kjetil bハルヴォルセン

@kjetilbhalvorsen、数学教授について話している場合、リーマン積分。彼の議論は、リーマン和では、特定の和の順序や和の分割を定義しないため、和は無限になるということです。物理学者のポイントは対称性であり、明らかに、「ゼロでなければならない」
アクサカル

1
そうすれば、彼は平均ではなく中央値を定義したと彼に伝えることができます。
kjetil bハルヴォルセン

2

別の見方は分位数関数です。

QFバツ=バツ

その後、モーメントまたは期待値を計算できます

ETバツ=Tバツfバツdバツ

あるいは(代わりに fバツdバツ=dF):

ETバツ=01TQFdF

最初の瞬間を計算したいとします Tバツ=バツ。以下の画像では、これはFと垂直線の間の領域に対応しています。バツ=0 (左側の領域は、 Tバツ<0)。2番目の瞬間は、同じ領域が次のラインに沿って回転するときにスイープするボリュームに対応します。バツ=0 (要因あり π 差)。

Cauchy versus Normal

画像の曲線は、各変位値が計算にどの程度寄与するかを示しています。

通常の曲線の場合、大きな寄与を示す変位値はごくわずかです。ただし、Cauchy曲線の場合、寄与度の高いさらに多くの変位値があります。曲線の場合TQF Fが0または1に近づくと、無限大まで十分に速くなり、面積は無限になります。

被積分関数自体の距離(平均)または二乗距離(分散)は無限になる可能性があるため、この無限大はそれほど奇妙ではないかもしれません。それは、それらの無限尾がどのくらいの重量、Fの何パーセントであるかという問題にすぎません。

ゼロからの距離の加算/積分(平均)または平均からの2乗距離(分散)では、非常に遠い単一のポイントが、近くの多くのポイントよりも平均距離(または2乗距離)に大きく影響します。

したがって、無限に向かって移動すると、密度は低下する可能性がありますが、距離や二乗距離などの(増加する)量の合計に対する影響は必ずしも変化しません。

ある距離での質量ごとに バツ 遠くに半分以上の質量がある 2バツ その後、あなたはその総質量の合計を取得します 12n 質量の寄与が減少するため収束しますが、その寄与は減少しないため分散は無限になります 2バツn212n


1

遭遇するほとんどの分布には、おそらく有限分散があります。ここに個別の例がありますバツ 分散は無限ですが、平均は有限です:

その確率質量関数を pk=c/|k|3、 ために kZ{0}p(0)=0, where c=(2ζ(3))1:=(2k=11/k3)1<. First of all because EX∣< it has finite mean. Also it has infinite variance because 2k=1k2/|k|3=2k=1k1=.

Note: ζ(x):=k=1kx is the Riemann zeta function. There are many other examples, just not so pleasant to write down.


4
Just because the distribution is symmetric (i.e. an even function), does not necessarily make the mean 0; the mean may not exist because the sum/integral turns out to be of the form
Dilip Sarwate
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.