3次の漸近線は存在しますか?


14

統計のほとんどの漸近的な結果は、として、推定器(MLEなど)が尤度関数の2次テイラー展開に基づいて正規分布に収束することを証明します。ベイジアン文学、「ベイジアン中心極限定理」にも同様の結果があると思います。これは、後部がとして法線に漸近的に収束することを示しています。nn

私の質問は-分布は、テイラー級数の第3項に基づいて、正規になる前に何かに収束するのか?それとも、一般的にこれを行うことはできませんか?


(+1)..良い質問です。ベイズ中央極限定理はラプラス近似と呼ばれます。つまり、後部は正規分布のように「多かれ少なかれ」振る舞います。(正式に分布は正規分布に分布で収束します)
-suncoolsu

回答:



5

シーケンスが1つのものに「収束」してから、別のものに「収束」することはできません。漸近展開の高次項はゼロになります。彼らがあなたに言うことは、nの与えられた値に対してどれだけゼロ近いかということです。n

(例として)中央極限定理の場合、適切な展開は、特性関数の対数、つまりキュムラント生成関数(cgf)の展開です。分布の標準化により、cgfの0番目、1番目、および2番目の項が修正されます。係数がキュムラントである残りの項は、に規則正しく依存します。CLTに発生標準化(の和割るNに何か比例によってランダム変数N 1 / 2収束が起こらない--without)が生じ、M 番目のキュムラント-すべての後に依存するM 番目のモーメント-にnで割るnnn1/2mthmthが、同時に我々が加算されるので、n個の用語は、最終結果が点である m個次項はに比例し、N / N M / 2 = N - M - 2 / 2。こうして標準和の第三のキュムラントはに比例し、1 / N 1 / 2、第キュムラントはに比例する1 / N(n1/2)m=nm/2nmthn/nm/2=n(m2)/21/n1/21/n、 等々。これらは高次の用語です。(詳細については、たとえば、Yuval Filmusのこのペーパーを参照してください。)

一般に、高い負のパワーは、低い負のパワーよりもはるかに小さくなります。nの値を十分に大きくすることで、常にこれを保証できます。したがって、nが非常に大きい場合nのすべての負のべきを無視できます。それらはゼロに収束します。収束への道に沿って、出発究極限界からは、追加用語によって増加精度で測定する:1 / N 1 / 2という用語は、初期の「補正」、または制限値からの逸脱です。次の1 / nnnnn1/n1/21/ntermは、それに追加された、より小さく、より速く消失する修正です。簡単に言えば、追加の用語は、シーケンスが限界に収束する速さを示しています。

これらの追加の用語は、nの有限(通常は小さい)値の修正に役立ちます。彼らのような、この点ですべての時間を示し、t検定のChenの変形三次(悪用、1 / N 1 / 2)用語。n1/n1/2


何らかの理由で、あなたの答えが完全に納得できるとは思いません。分布を「ストレッチ」する必要があり、正規分布に収束する前にXに収束すると言うのは正しくないことに同意します。それは私の側の間違いでしょう。それでも、4次以上の「モーメント」のみがゼロになるように、分布をスケーリングする方法が存在するはずです。そのようなスケーリングファクターが存在する場合、そのスケーリングファクターがどのように見えるかについて、少し難しく考える必要があります
-gabgoh

2
@gabgoh答えのどの側面が弱いかについてもっと聞きたいです。スケーリングに関しては、行き詰まっています。シーケンスの要素を標準化する際に、その可能性はすでに使い果たしています。(仮に)何らかの形式のスケーリングにより3番目のモーメントがゼロにならないようにすると、制限分布が正規ではなくなるため、CLTと矛盾します。推定量の漸近性に関連する問題があります。多くの場合、エスティメータを調整して、より高い瞬間を漸近的に殺すことができます(たとえば、ブートストラップで)。しかし、これはスケーリングだけではまだできません。
whuber

3

洞察力に富んだ質問に答えようとしています。テイラー級数の第3項を含めると、真の分布への級数の収束速度が向上します。ただし、3回目以降の瞬間の使用は(限られた経験では)見ていません。

n1/2n1/2n

したがって、あなたの質問に対する答えはnoであるべきだと思います。漸近分布は正規分布に収束します(CLTによる、LindbergのCLTの規則性条件下)。ただし、高次の項を使用すると、漸近分布への収束率が増加する場合があります。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.