タグ付けされた質問 「asymptotics」

漸近理論は、標本サイズが無限大に近づいたときの推定量と検定統計量の特性を研究します。

1
統計が滑らかな場合にのみ、ブートストラップが有効であるという結果がありますか?
全体を通して、統計量θ(⋅)θ(⋅)\theta(\cdot)は、分布関数Fから得られるデータ関数であると仮定します。サンプルの経験的分布関数はです。したがって、は確率変数として表示される統計であり、は統計のブートストラップバージョンです。KS距離としてを使用しますX1,…XnX1,…XnX_1, \ldots X_nFFF θ(F)θ( F)Dを∞F^F^\hat{F}θ(F)θ(F)\theta(F)θ(F^)θ(F^)\theta(\hat{F})d∞d∞d_\infty 統計が単純な線形統計である場合、ブートストラップの有効性に対して「if and only if」結果があります。たとえば、Mammenの定理1「ブートストラップはいつ機能しますか?」 もしいくつかの任意の機能のためのHNことその後ブートストラップは意味で動作するD∞[L(θ( F) - T N)、L(θ(F)-TN)]→P0が存在する場合にのみσNおよびTNとなるようにθ(F)=1n∑ni−1hn(Xi)θ(F)=1n∑i−1nhn(Xi)\theta(F) = \frac{1}{n} \sum_{i-1}^n h_n(X_i)hnhnh_nd∞[L(θ(F^)−t^n),L(θ(F)−tn)]→p0d∞[L(θ(F^)−t^n),L(θ(F)−tn)]→p0d_\infty\big[\mathscr{L}(\theta(\hat{F})-\hat{t}_n), \mathscr{L}(\theta(F)-t_n)\big] \underset{p}{\rightarrow} 0σnσn\sigma_ntntnt_n 我々は定義することができる ^ T N我々のサンプルの一部機能として、T N = E(T N)d∞[L(θ(F)−tn),N(0,σ2n)]→p0d∞[L(θ(F)−tn),N(0,σn2)]→p0d_\infty\big[\mathscr{L}(\theta(F)-t_n), N(0, \sigma_n^2)\big]\underset{p}{\rightarrow} 0tn^tn^\hat{t_n}tn=E(t^n)tn=E(t^n)t_n = \mathbb{E}(\hat{t}_n) また、Politis RomanoとWolfによるSubsamplingの定理1.6.3など、一般的な統計に対してブートストラップが機能するより一般的な結果もあります。 は、有限のサポートを持つすべての分布のクラスから引き出されると仮定します。統計量θ (⋅ )がFで極値ノルムに関して微分可能であり、微分g Fが0 < Var F [ g F(x )] < ∞を満たすと仮定します。次に、θ (F …

2
連続性補正(たとえば、二項分布の正規近似)が機能するのはなぜですか?
正規近似の二項分布に対する連続性補正がどのように導出されたかをよりよく理解したいと思います。 1/2を追加する必要があることを決定するために、どの方法が使用されました(別の数値ではないのですか?)。任意の説明(または以外示唆読み取りへのリンク、このことは、理解されるであろう)。

2
Wilksの1938年の証明が、誤って指定されたモデルに対して機能しないのはなぜですか?
有名な1938年の論文(「複合仮説をテストするための尤度比の大標本分布」、Annals of Mathematical Statistics、9:60-62)で、サミュエルウィルクスは(対数尤度比)の漸近分布を導きました)ネストされた仮説の場合、より大きな仮説が正しく指定されているという仮定の下で。極限分布はχ 2(カイ二乗)とH - M個の自由度Hが大きい仮説とのパラメータの数であり、Mが2×LLR2×LLR2 \times LLRχ2χ2\chi^2h−mh−mh-mhhhmmmネストされた仮説の自由パラメーターの数です。ただし、仮説が誤って指定されている場合(つまり、大きな仮説がサンプリングされたデータの真の分布ではない場合)、この結果が保持されないことはよく知られています。 誰でもその理由を説明できますか?ウィルクスの証明は、わずかな修正を加えても機能するはずです。最尤推定(MLE)の漸近正規性に依存しますが、これは誤って指定されたモデルでも保持されます。唯一の違いは、制限多変量正規分布の共分散行列です。正しく指定されたモデルでは、共分散行列を逆フィッシャー情報行列で近似できますが、仕様が間違っていれば、共分散行列のサンドイッチ推定(J − 1 K J − 1)。モデルが正しく指定されると、後者はフィッシャー情報行列の逆行列になります(J = KJ−1J−1J^{-1}J−1KJ−1J−1KJ−1J^{-1} K J^{-1}J=KJ=KJ = K)。AFAICT、Wilksの証明は、MLEの多変量正規の可逆漸近共分散行列(Wilks論文の)がある限り、共分散行列の推定値がどこから来るかを気にしません。 c−1c−1c^{-1}

4
新しいベクターをPCA空間に投影する方法は?
主成分分析(PCA)を実行した後、新しいベクトルをPCA空間に投影します(つまり、PCA座標系で座標を見つけます)。 を使用してR言語でPCAを計算しましたprcomp。これで、ベクトルにPCA回転行列を掛けることができるはずです。このマトリックスの主成分を行または列に配置する必要がありますか?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
強い整合性が必要な統計アプリケーションはありますか?
誰かが知っているのか、または弱い一貫性の代わりに推定量の強い一貫性が必要な統計のアプリケーションがあるのか​​疑問に思っていました。つまり、アプリケーションには強い整合性が不可欠であり、アプリケーションは弱い整合性では機能しません。

5
中心極限定理と大数の法則が一致しない場合
これは基本的に、私がmath.seで見つけた質問の複製であり、期待した答えが得られませんでした。 ましょう独立し、同一分布確率変数のシーケンスである、と及び。{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = 1 の評価を検討する limn→∞P(1n−−√∑i=1nXi≤n−−√)limn→∞P(1n∑i=1nXi≤n) \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right) この式は、不等式イベントの両側が無限になりがちなので、操作する必要があります。 A)減算を試す 制限ステートメントを検討する前に、両側から\ sqrt {n}を減算しn−−√n\sqrt{n}ます。 limn→∞P(1n−−√∑i=1nXi−n−−√≤n−−√−n−−√)=limn→∞P(1n−−√∑i=1n(Xi−1)≤0)=Φ(0)=12limn→∞P(1n∑i=1nXi−n≤n−n)=limn→∞P(1n∑i=1n(Xi−1)≤0)=Φ(0)=12\lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i -\sqrt{n} \leq \sqrt{n}-\sqrt{n} \right) = \lim_{n \to \infty} \mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n (X_i - 1) \leq 0\right) \\ = \Phi(0) = …

3
非正規サンプルのサンプル分散の漸近分布
これはこの質問によって提起された問題のより一般的な取り扱いです 。サンプル分散の漸近分布を導出した後、デルタ法を適用して標準偏差の対応する分布に到達できます。 iidの非正規ランダム変数のサイズのサンプル、平均してと分散。サンプル平均とサンプル分散を { X i } 、nnn{Xi},i=1,...,n{Xi},i=1,...,n\{X_i\},\;\; i=1,...,nμμ\muσ2σ2\sigma^2x¯=1n∑i=1nXi,s2=1n−1∑i=1n(Xi−x¯)2x¯=1n∑i=1nXi,s2=1n−1∑i=1n(Xi−x¯)2\bar x = \frac 1n \sum_{i=1}^nX_i,\;\;\; s^2 = \frac 1{n-1} \sum_{i=1}^n(X_i-\bar x)^2 私たちは知っている E(s2)=σ2,Var(s2)=1n(μ4−n−3n−1σ4)E(s2)=σ2,Var⁡(s2)=1n(μ4−n−3n−1σ4)E(s^2) = \sigma^2, \;\;\; \operatorname {Var}(s^2) = \frac{1}{n} \left(\mu_4 - \frac{n-3}{n-1}\sigma^4\right) ここで、であり、存在が有限である必要があるモーメントが存在し、有限である分布に注意を制限します。μ4=E(Xi−μ)4μ4=E(Xi−μ)4\mu_4 = E(X_i -\mu)^4 それを保持していますか n−−√(s2−σ2)→dN(0,μ4−σ4)?n(s2−σ2)→dN(0,μ4−σ4)?\sqrt n(s^2 - \sigma^2) \rightarrow_d N\left(0,\mu_4 - \sigma^4\right)\;\; ?

2
なぜ漸近正規性の定義でなのか?
パラメータの推定器のシーケンスは、場合、漸近的に正常です。(ソース)次にを漸近分散と呼びます。この分散がCramer-Raoの境界に等しい場合、推定器/シーケンスは漸近的に効率的であると言います。 θ √うんnUnU_nθθ\thetaVUNn−−√(Un- θ )→ N(0 、v )n(Un−θ)→N(0,v)\sqrt{n}(U_n - \theta) \to N(0,v)vvvうんnUnU_n 質問:なぜを特に使用するのですか?n−−√n\sqrt{n} サンプル平均では、であるため、この選択により正規化されます。しかし、上記の定義はサンプル平均以上に適用されるため、なぜ正規化することを選択するのでしょうか。√Va r (X¯)= σ2nVar(X¯)=σ2nVar(\bar{X}) = \frac{\sigma^2}{n}n−−√n\sqrt{n}

3
ゼロ以外の漸近的分散を持つ漸近的整合性-それは何を表していますか?
この問題は以前に発生しましたが、それを明確にする(そして分類する)答えを引き出すことを試みる特定の質問をしたいと思います。 「Poor Man's Asymptotics」では、 (a)確率が定数に収束する一連のランダム変数 対照的に (b)確率が確率変数に収束する(したがって分布する)確率変数のシーケンス。 しかし、「賢者の漸近」では、次の場合もあります。 (c)限界で非ゼロの分散を維持しながら、確率が定数に収束するランダム変数のシーケンス。 私の質問は次のとおりです(以下の自分の探索的回答から盗みます): どのように我々は漸近的に一致しているが、推定理解することができますまた、非ゼロ、有限の分散を持っているの?この差異は何を反映していますか?その動作は、「通常の」一貫した推定量とどのように異なりますか? (c)で説明されている現象に関連するスレッド(コメントも参照): 一貫性のある推定量と公平な推定量の違いは何ですか? /stats/120553/convergence-of-an-estimator-with-infinite-variance 漸近的に整合性のある推定器が無限大でゼロ分散を持たないのはなぜですか? 収束と制限分散がほぼ確実にゼロになる

3
しないのはなぜためのCLTワーク
我々は、の合計ことを知っているのでパラメータを持つポアソン、それ自体とポアソンである 。したがって、仮説として、を実際にはと言うことができます。ここで、各は次のとおりです、およびCLTを機能させるには大きなnを使用します。nnnλλ\lambdanλnλn\lambdax∼poisson(λ=1)x∼poisson(λ=1)x \sim poisson(\lambda = 1) ∑n1xi∼poisson(λ=1)∑1nxi∼poisson(λ=1)\sum_1^n x_i \sim poisson(\lambda = 1) xixix_ixi∼poisson(λ=1/n)xi∼poisson(λ=1/n)x_i \sim poisson(\lambda = 1/n) これは(明らかに)機能しません。これは、CLTが正常に「近い」ランダム変数に対して「高速」に動作する方法と関係があり、ラムダが小さいほど、ほとんどが0であり、まれにしか変化しないランダム変数を取得することと関係があると思います。 しかし、私が説明したのは私の直感です。これがなぜそうなのかを説明するより正式な方法はありますか? ありがとう!

2
観測された情報マトリックスは、予想される情報マトリックスの一貫した推定量ですか?
弱一貫性最尤推定器(MLE)で評価された観測情報行列が、期待される情報行列の弱一貫性推定器であることを証明しようとしています。これは広く引用された結果ですが、誰も参照や証明をしていません(Googleの結果の最初の20ページと統計テキストを使い果たしたと思います)。 弱一貫性のあるMLEシーケンスを使用して、大きな数の弱い法則(WLLN)と連続マッピング定理を使用して、必要な結果を得ることができます。ただし、連続マッピング定理は使用できないと思います。代わりに、多数の統一法則(ULLN)を使用する必要があると思います。誰かがこれの証拠を持っている参照を知っていますか?ULLNを試みていますが、簡潔にするため、現時点では省略します。 この質問の長さをおaびしますが、表記を導入する必要があります。表記は次のとおりです(私の証明は最後です)。 我々は確率変数のIIDサンプルがあるとし{Y1,…,YN}{Y1,…,YN}\{Y_1,\ldots,Y_N\}密度のf(Y~|θ)f(Y~|θ)f(\tilde{Y}|\theta)、ここで(は、サンプルのメンバーのいずれか1つと同じ密度の単なる一般的なランダム変数です)。ベクトルは、すべてのであるすべてのサンプルベクトルのベクトルです。。密度の真のパラメーター値はであり、θ∈Θ⊆Rkθ∈Θ⊆Rk\theta\in\Theta\subseteq\mathbb{R}^{k}Y~Y~\tilde{Y}Y=(Y1,…,YN)TY=(Y1,…,YN)TY=(Y_1,\ldots,Y_N)^{T}Yi∈RnYi∈RnY_{i}\in\mathbb{R}^{n}i=1,…,Ni=1,…,Ni=1,\ldots,Nθ N(Y )θ0θ0\theta_{0}θ^N(Y)θ^N(Y)\hat{\theta}_{N}(Y)はの弱一貫性最尤推定量(MLE)です。規則性条件に従って、フィッシャー情報マトリックスは次のように記述できます。θ0θ0\theta_{0} I(θ)=−Eθ[Hθ(logf(Y~|θ)]I(θ)=−Eθ[Hθ(log⁡f(Y~|θ)]I(\theta)=-E_\theta \left[H_{\theta}(\log f(\tilde{Y}|\theta)\right] ここでヘッセ行列です。同等のサンプルはHθHθ{H}_{\theta} IN(θ)=∑i=1NIyi(θ),IN(θ)=∑i=1NIyi(θ),I_N(\theta)=\sum_{i=1}^N I_{y_i}(\theta), ここで、。観測された情報行列は次のとおりです。Iyi=−Eθ[Hθ(logf(Yi|θ)]Iyi=−Eθ[Hθ(log⁡f(Yi|θ)]I_{y_i}=-E_\theta \left[H_{\theta}(\log f(Y_{i}|\theta)\right] J(θ)=−Hθ(logf(y|θ)J(θ)=−Hθ(log⁡f(y|θ)J(\theta) = -H_\theta(\log f(y|\theta)、 (一部の人々は行列がで評価される需要θが、一部にはありません)。サンプルの観測情報マトリックスは次のとおりです。θ^θ^\hat{\theta} JN(θ)=∑Ni=1Jyi(θ)JN(θ)=∑i=1NJyi(θ)J_N(\theta)=\sum_{i=1}^N J_{y_i}(\theta) ここで、。Jyi(θ)=−Hθ(logf(yi|θ)Jyi(θ)=−Hθ(log⁡f(yi|θ)J_{y_i}(\theta)=-H_\theta(\log f(y_{i}|\theta) Iは、推定の確率に収束を証明することができるにI (θ )ではなくのN - 1 J N(θ N(Y ))にI (θ 0)。ここまでが私の証明です。N−1JN(θ)N−1JN(θ)N^{-1}J_N(\theta)I(θ)I(θ)I(\theta)N−1JN(θ^N(Y))N−1JN(θ^N(Y))N^{-1}J_{N}(\hat{\theta}_N(Y))I(θ0)I(θ0)I(\theta_{0}) 今の要素である(R 、よ)のJ N(θ )いずれかのために、R 、s = 1 、… 、k(JN(θ))rs=−∑Ni=1(Hθ(logf(Yi|θ))rs(JN(θ))rs=−∑i=1N(Hθ(log⁡f(Yi|θ))rs(J_{N}(\theta))_{rs}=-\sum_{i=1}^N (H_\theta(\log f(Y_i|\theta))_{rs}(r,s)(r,s)(r,s)JN(θ)JN(θ)J_N(\theta)r,s=1,…,kr,s=1,…,kr,s=1,\ldots,k。サンプルはIIDされている場合は、多数(WLLN)の弱法則、確率のこれらの加数が収束の平均によるに。したがって、N − 1(J N(θ )−Eθ[(Hθ(logf(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs−Eθ[(Hθ(log⁡f(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs-E_{\theta}[(H_\theta(\log …

5
平均の信頼区間の近似誤差
ましょう{Xi}ni=1{Xi}i=1n\{X_i\}_{i=1}^nの値を取る確率変数IIDのファミリーである[0,1][0,1][0,1]平均を有する、μμ\mu及び分散σ2σ2\sigma^2。平均、使用するためのシンプルな信頼区間σσ\sigmaそれが知られるたびに、によって与えられ、 P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1).P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1). P( | \bar X - \mu| > \varepsilon) \le \frac{\sigma^2}{n\varepsilon^2} \le\frac{1}{n \varepsilon^2} \qquad (1). また、理由X¯−μσ/n√X¯−μσ/n\frac{\bar X- \mu}{\sigma/\sqrt{n}}は、標準正規確率変数として漸近的に分布します。正規分布は、近似信頼区間を「構築」するために使用される場合があります。 複数の選択肢の回答の統計試験では、私はこの近似を使用する代わりにしなければならなかった(1)(1)(1)いつでもn≥30n≥30n \geq 30。近似誤差が定量化されていないため、私は常にこれを非常に不快に思っています(想像以上です)。 なぜではなく、正規近似を使用(1)(1)(1)? 私は盲目的にルール適用するには、二度と、したくないn≥30n≥30n \geq 30。そうすることを拒否し、適切な代替手段を提供するのに役立つ良い参考文献はありますか?((1)(1)(1)は、私が適切な代替案と考えるものの例です。) ここで、σσ\sigmaとE[|X|3]E[|X|3]E[ |X|^3]は不明であり、簡単に制限されます。 私の質問は特に信頼区間に関する参照要求であるので、こことここで部分的な複製として提案された質問とは異なることに注意してください。そこでは答えられません。

2
GLMの正規化変換の導出
\newcommand{\E}{\mathbb{E}}どのようにA (⋅ )= ∫ D UV 1 / 3(μ )A(⋅)=∫duV1/3(μ)A(\cdot) = \displaystyle\int\frac{du}{V^{1/3}(\mu)}正規化指数家族のための変換派生した? より具体的には、3ページのスライド1のテイラー展開スケッチを追おうとしましたが、いくつか質問があります。バツXX指数ファミリー、形質転換からh (X )h(X)h(X)、およびκ Iκi\kappa _i示す私はトンの時間ithi^{th}キュムラント、スライドは、と主張している: κ 3(H (ˉ X))≈ H '(μ )3 κ 3(ˉ X)N 2 +3H'(μ)2H"(μ)σ4N +O(N−3)、κ3(h(X¯))≈h′(μ)3κ3(X¯)N2+3h′(μ)2h′′(μ)σ4N+O(N−3), \kappa _3(h(\bar{X})) \approx h'(\mu)^3\frac{\kappa _3(\bar{X})}{N^2} + 3h'(\mu)^2h''(\mu)\frac{\sigma^4}{N} + O(N^{-3}), および上記の評価が0になるようなh(X)を見つけるだけh (X )h(X)h(X)です。 私の最初の質問は算数についてです。私のテイラー展開には異なる係数があり、それらが多くの項を落としたことを正当化することはできません。 h (x )以来 ≈ H (μ )+ …

5
M推定器の経験的ヘッセ行列は不定にできますか?
Jeffrey Wooldridgeは、断面およびパネルデータの計量経済分析(357ページ)で、経験的なヘッシアンは、「作業中の特定のサンプルについて、正定値、または正定値でさえも保証されない」と述べています。 これは私にとって間違っているようです(数値問題は別として)ヘッシアンは、与えられたサンプルの目的関数を最小化するパラメーターの値としてのM-estimatorの定義と、 (ローカル)最小値では、ヘッセ行列は半正定です。 私の主張は正しいですか? [編集:文は第2版で削除されました。本の。コメントを参照してください。] 背景と仮定最小化することにより得られた推定量である 示し番目の観察。θˆNθ^N\widehat \theta_N1N∑i=1Nq(wi,θ),1N∑i=1Nq(wi,θ),{1 \over N}\sum_{i=1}^N q(w_i,\theta),wiwiw_iiii レッツの意味ヘッセ行列によって、 qqqHHHH(q、θ )私はj= ∂2q∂θ私∂θjH(q、θ)私j=∂2q∂θ私∂θjH(q,\theta)_{ij}=\frac{\partial^2 q}{\partial \theta_i \partial \theta_j} の漸近共分散にはがます。ここでは真のパラメーター値です。それを推定する1つの方法は、経験的なヘッセ行列を使用することですθˆnθ^n\widehat \theta_nE[ H(q、θ0)]E[H(q、θ0)]E[H(q,\theta_0)]θ0θ0\theta_0 Hˆ= 1N∑i = 1NH(w私、θˆn)H^=1N∑私=1NH(w私、θ^n)\widehat H=\frac{1}{N}\sum_{i=1}^N H(w_i,\widehat \theta_n) 問題になっているのは\ widehat Hの確定性ですHˆH^\widehat H。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.