サンプルとは、ある意味で、分布の「最良の」推定を意味するのでしょうか。


10

いくつかのiidサンプルポイントが与えられた多数の(弱い/強い)法則により、それらのサンプル平均は、確率とサンプルサイズ両方で分布平均に収束します 無限に行きます。、F *{ X Iiは=は1 ... N } = 1{xiRn,i=1,,N}Nf({xi,i=1,,N}):=1Ni=1NxiN

サンプルサイズが固定されている場合、LLN推定量は、ある意味で最良の推定量であるのでしょうか。例えば、f Nf

  1. その期待値は分布平均であるため、不偏推定量です。その分散はで、は分布の分散です。しかし、それはUMVUですか? σ2をσ2Nσ2
  2. いくつかの関数がありますかそのような最小化問題を解く:F *{ X Iiは= 1 ... N } F *{ X Iiは= 1 ... N } = argmin U R nl0:Rn×Rn[0,)f({xi,i=1,,N})

    f({xi,i=1,,N})=argminuRni=1Nl0(xi,u)?

    言い換えると、は、最小コントラストフレームワークでいくつかのコントラスト関数に最適です(BickleおよびDoksumによる「数学的統計:基本的なアイデアと選択されたトピック、第1巻」のセクション2.1「推定の基本的なヒューリスティック」を参照)。l 0fl0

    たとえば、分布がガウス分布のファミリーからのものであることがわかっている/制限されている場合、サンプル平均は分布平均のMLE推定量であり、MLEは最小コントラストフレームワークに属し、そのコントラスト関数は対数尤度を引いたものです関数。l0

  3. 関数があり、が最小化問題を解くようになっていますか:ある分布のファミリ内の 任意の分布について?f f = argmin fl:Rn×F[0,)fP x i F

    f=argminfEiid {xi,i=1,,N} each with distribution Pl(f({xi,i=1,,N}),P)?
    PxiF

    言い換えると、は、決定論的フレームワーク(「数学的統計:基本的なアイデアと選択されたトピック、第1巻」の1.3節「決定理論のフレームワーク」を参照)で失われた関数といくつかのファミリーの分布に対して最適です。ビックルとドクサムによる)。flF

上記は、私がこれまでに知っている「最良の」推定の3つの異なる解釈であることに注意してください。LLN推定器に適用される可能性のある他の可能な解釈について知っている場合は、遠慮なくそのことについても言及してください。


推定量を特徴付ける別の方法:一貫した推定量についてはこちらをご覧ください。LLNにより、サンプル平均は一貫しています。
Rohit Banga

1
サンプル平均には、多くの優れた興味深い特性がありますが、特定の状況で得られる最良のものではない場合があります。1つの例は、分布のサポートがパラメーターの値に依存する場合です。考え、次には、分布は意味しますが、UMVUEではありません。たとえば、最大次数統計に基づく不偏推定は、標本平均よりも分散が小さくなります。X1,X2,,XnU(0,θ)1ni=1nXiθn+1nX(n)
VitalStatistix

ありがとう!しかし、その分散はどのように計算されますか?
Tim

のpdf 、最大次数統計は次の式で与えられます:、不偏推定量の分散ようなり、、つまり、分散はのオーダーであり、サンプル平均の分散はオーダーです。Y=X(n)
f(y)=nyn1θn;y(0,θ)
Varnnn+1Y1Var(nn+1Y)=1n(n+2)θ2 11n21n
VitalStatistix

@VitalStatistix、ここで何かが完全に欠けていますか?変数が均一である場合、それらのサンプル平均は期待値持っているので、2を乗算して不偏推定量を取得しませんか?θ / 2 θ[0,θ]θ/2θ
NRH

回答:


4

2番目の質問に対する答えは「はい」です。サンプル平均は、関数が場合、xとuが実数の場合、または場合、最小コントラスト推定量です。列ベクトル。これは、最小二乗理論または微分法によるものです。 x u 2x u x u l0(xu)2(xu)(xu)

最小コントラスト推定量は、特定の技術的条件下では、一貫しており、漸近的に正常です。標本平均の場合、これはLLNと中心極限定理からすでに従います。最小コントラスト推定量がどのようにしても「最適」であることは知りません。最小コントラスト推定量の良い点は、多くのロバスト推定量(中央値、Huber推定量、サンプル分位数など)がこのファミリーに該当することであり、最小コントラスト推定量の一般定理を適用するだけで、それらが一貫して漸近的に正常であると結論付けることができます。いくつかの技術的条件をチェックしている限り(ただし、これは思ったよりもはるかに困難です)。

質問で言及しない最適性の概念の1つは、効率です。これは、大まかに言えば、特定の品質の推定値を取得するために必要なサンプルの大きさに関するものです。平均と中央値の効率の比較については、http://en.wikipedia.org/wiki/Efficiency_(statistics)#Asymptotic_efficiencyを参照してください(平均はより効率的ですが、中央値は外れ値に対してより堅牢です)。

xi

fPf P F P PmaxPFPFPP


ありがとう!一貫性があり漸近的に正常な最小コントラスト推定器の特性、および中央値、フーバー推定器、サンプル分位数などの例について、良い参考資料はありますか?
Tim

あなたが引用しているBickel&Doksumの本のセクション5.2.2は、最小コントラスト推定量の一貫性に関する定理を持っています。セクション5.4.2では、漸近的な正規性について説明します。私がお勧めするもう1つの情報源は、私が言及する他の推定量についても説明していますが、ファンデルファールトの漸近統計の本です。第5章では、M推定量について説明します。これは、最小コントラスト推定量の名前です。
DavidR

ありがとう!最初の段落のノルムは任意のノルムですか、それともノルムでなければなりませんか?l 2Rnl2
Tim

私は標準のユークリッドノルムを意味します-明確にするためにベクトル表記に変更しました。
DavidR

DavidR、ありがとう!(1)私の投稿のパート3に関して、サンプル平均、つまりLLN推定量が、ある損失関数決定理論的フレームワークに適合できるかどうか疑問に思います。(2)MLEやLeast Square Estimatorなどのすべての推定量が最小コントラストフレームワークに適合しているが、決定理論のフレームワークには適合していないという印象があります。それでは、決定論的フレームワークは推定量の構築には使用されず、それらを評価するためだけに使用されますか?l
Tim
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.