タグ付けされた質問 「asymptotics」

漸近理論は、標本サイズが無限大に近づいたときの推定量と検定統計量の特性を研究します。

4
3次の漸近線は存在しますか?
統計のほとんどの漸近的な結果は、として、推定器(MLEなど)が尤度関数の2次テイラー展開に基づいて正規分布に収束することを証明します。ベイジアン文学、「ベイジアン中心極限定理」にも同様の結果があると思います。これは、後部がとして法線に漸近的に収束することを示しています。n→∞n→∞n \rightarrow \inftyn→∞n→∞n \rightarrow \infty 私の質問は-分布は、テイラー級数の第3項に基づいて、正規になる前に何かに収束するのか?それとも、一般的にこれを行うことはできませんか?

1
REMLにはベイジアン解釈が存在しますか?
REMLのベイジアン解釈は利用可能ですか?私の直感では、REMLはいわゆる経験的ベイズ推定手順に非常に似ており、ある種の漸近的等価性(たとえば、適切な事前クラスのもとで)が実証されているのだろうかと思います。経験的ベイズとREMLはどちらも、たとえば迷惑なパラメーターに直面して行われた「妥協した」推定アプローチのように見えます。 主に、この質問で私が求めるのは、こうした種類の議論がもたらす傾向がある高レベルの洞察です。もちろん、何らかの理由でこの性質の議論をREMLで有効に追求できない場合、これがなぜそうなのかについての説明も歓迎すべき洞察を提供するでしょう!

4
一貫性のあるものと漸近的に偏らないものの違いを直感的に理解する
私は、一貫性のある用語と漸近的に偏りのない用語の違いと実際的な違いを直感的に理解し、感じるようにしています。私はそれらの数学的/統計的定義を知っていますが、私は直感的な何かを探しています。私には、それぞれの定義を見ると、ほとんど同じように見えます。違いは微妙なはずだと思いますが、わかりません。私は違いを視覚化しようとしていますが、それはできません。誰か助けてもらえますか?

3
Wilcoxonテストの漸近的な相対的効率が、正規分布データのスチューデントのt検定と比較されるのはなぜですか?
Wilcoxonの符号付きランク検定の漸近相対効率(ARE)は、データが正規分布の母集団から引き出される場合、スチューデントのt検定と比較してことはよく知られています。これは、基本的な1サンプルテストと2つの独立したサンプルのバリアント(Wilcoxon-Mann-Whitney U)の両方に当てはまります。また、通常のデータのANOVA Fテストと比較したクラスカルワリステストのAREです。3π≈0.9553π≈0.955\frac{3}{\pi} \approx 0.955 この驚くべき(私にとっては、「最も予期しない外観のππ\pi 1つ」)と驚くほど単純な結果は、洞察力に富んだ、驚くべき、または単純な証拠を持っていますか?

1
大規模なサンプルの漸近/理論-なぜ気にするのか?
この質問が「あまりにも一般的」とマークされないことを望み、すべてに利益をもたらす議論が開始されることを望みます。 統計では、大規模なサンプル理論の学習に多くの時間を費やしています。漸近的に不偏であるか、漸近的に効率的であるか、それらの漸近分布などを含む推定器の漸近特性を評価することに深く興味があります。漸近という言葉は、という仮定と強く結びついていn → ∞n→∞n \rightarrow \inftyます。 しかし実際には、常に有限の扱いnnnます。私の質問は: 1)大きなサンプルとはどういう意味ですか?小さいサンプルと大きいサンプルをどのように区別できますか? 2)と言うときn → ∞n→∞n \rightarrow \infty、文字通りnnnは行くべきだという意味∞∞\inftyですか? 二項分布の場合、はCLTで正規分布に収束するために約n = 30が必要です。我々は持っている必要があり、N → ∞かによって、この場合には∞我々は30以上を意味します!バツ¯バツ¯\bar{X}n → ∞n→∞n \rightarrow \infty∞∞\infty 3)有限のサンプルがあり、推定量の漸近的挙動に関するすべてを知っていると仮定します。だから何?推定器が漸近的に不偏であると仮定すると、有限サンプルの対象パラメータの不偏推定がありますか、それともがあれば不偏のものになりますか?n → ∞n→∞n \rightarrow \infty 上記の質問からわかるように、私は「大規模なサンプル漸近性」の背後にある哲学を理解し、私たちが気にする理由を学ぼうとしていますか?私が学んでいる定理についていくつかの直観を得る必要があります。

2
標準誤差推定に使用されるプロファイル尤度のヘッセ行列
この質問はこれによって動機づけられます。私は2つのソースを調べましたが、これが私が見つけたものです。 A. van der Vaart、漸近統計: プロファイルの尤度を明示的に計算することはほとんど不可能ですが、その数値評価はしばしば実行可能です。次に、プロファイル尤度は、尤度関数の次元を減らすのに役立ちます。プロファイル尤度関数は、多くの場合、パラメトリックモデルの(通常の)尤度関数と同じ方法で使用されます。離れて推定した最大の彼らのポイントを取ることから、で二次微分の推定マイナス電子の漸近共分散行列の逆行列として使用されます。最近の研究は、この実践を検証しているようです。θ^θ^\hat\thetaθ^θ^\hat\theta J.ウォルドリッジ、断面およびパネルデータの計量経済分析(両方のエディションで同じ): 漸近特性を研究するためのデバイスとして、一般にすべてに依存するため、集中目的関数の値は制限されます。方程式(12.89)がiid関数の合計である設定は、特定の非線形パネルデータモデルから個々の特定の効果を集中させるときに発生します。さらに、集中目的関数は、一見異なる推定アプローチの等価性を確立するのに役立ちます。g(W,β)g(W、β)g(W,\beta)WWW Wooldridgeは、M推定器のより広いコンテキストで問題を説明しているため、最尤推定器にも適用されます。 したがって、同じ質問に対して2つの異なる回答が得られます。私の意見では悪魔は詳細にあります。一部のモデルでは、プロファイル尤度のヘッセを、一部のモデルでは安全に使用できます。条件を与える一般的な結果はありますか?

1
モデルが正しくない場合でも、MLE推定は漸近的に正常かつ効率的ですか?
前提:これは愚かな質問かもしれません。私はMLEの漸近的性質に関する記述しか知りませんが、証明を研究したことはありません。もしそうなら、これらの質問をするつもりはないだろう、またはこれらの質問が意味をなさないことに気付くかもしれない...だから私に簡単に行ってください:) モデルのパラメーターのMLE推定量が漸近的に正常で効率的であると言うステートメントをよく見ました。文は通常次のように書かれています θ^→dN(θ0,I(θ0)−1)θ^→dN(θ0,I(θ0)−1)\hat{\theta}\xrightarrow[]{d}\mathcal{N}(\theta_0,\mathbf{I}(\theta_0)^{-1})としてN→∞N→∞N\to\infty ここでNNNサンプル数であり、II\mathbf{I}フィッシャー情報とでθ0θ0\theta_0パラメータ(ベクトル)である真値。さて、真のモデルへの参照があるので、これは、モデルが真でない場合、結果が保持されないことを意味しますか? 例:風速Vと加法ガウスノイズの関数として風力タービンからの出力をモデル化すると仮定し ます。PPPVVV P=β0+β1V+β2V2+ϵP=β0+β1V+β2V2+ϵP=\beta_0+\beta_1V+\beta_2V^2+\epsilon 少なくとも2つの理由で、モデルが間違っていることを知っています。1)はVの3乗に本当に比例します。2)風速とは無関係な他の予測変数を無視したため、誤差は加法的ではありません(風速0では電力が生成されないため、β0は0でなければなりませんが、ここでは関係ありません)。今、風力タービンからの電力と風速のデータの無限データベースがあると仮定します。どんなサイズのサンプルでも好きなだけ描くことができます。私は1000個のサンプル、サイズ100、及び計算の各描画仮定β 100のMLE推定値β = (β 0、β 1PPPVVVβ0β0\beta_0β^100β^100\hat{\boldsymbol{\beta}}_{100})私のモデルの下でちょうどOLSが推定されるであろう(。私は、このようの分布から1000個のサンプルを持っている β 100。私は練習を繰り返すことができ、N = 500 、1000年、1500年、...。N → ∞の分布すべきである β Nは述べ平均と分散で、漸近的に正常である傾向がありますか?または、モデルが正しくないという事実がこの結果を無効にしますか?β=(β0,β1,β2)β=(β0,β1,β2)\boldsymbol{\beta}=(\beta_0,\beta_1,\beta_2)β^100β^100\hat{\boldsymbol{\beta}}_{100}N=500,1000,1500,…N=500,1000,1500,…N=500,1000,1500,\dotsN→∞N→∞N\to\inftyβ^Nβ^N\hat{\boldsymbol{\beta}}_{N} 私が尋ねている理由は、アプリケーションではめったに(あるとしても)モデルが「真」であるということです。モデルが真ではないときにMLEの漸近特性が失われた場合、異なる推定原理を使用することは理にかなっている可能性があります。 編集:コメントでは、真のモデルの概念には問題がある可能性があると指摘されていました。モデルの家族与えられた:私は心の中で次のような定義を持っていたのパラメータベクトルでindicized θあなたはいつも書くことができ、家族内の各モデルについて、 fθ(x)fθ(x)f_{\boldsymbol{\theta}}(x)θθ\boldsymbol{\theta} Y=fθ(X)+ϵY=fθ(X)+ϵY=f_{\boldsymbol{\theta}}(X)+\epsilon 単純に定義することによってとしてY - F θ(X )。ただし、一般に、エラーはXに直交せず、平均0を持ち、必ずしもモデルの導出で想定される分布を持つとは限りません。値が存在する場合にはθ 0ようにεはこれら2つのプロパティだけでなく、想定分布を有しているが、私はモデルが真であると言うでしょう。私はこれを直接ことを言ってに関係していると思わF θ 0(X )= E [ Y | X ]、分解のエラー項ϵϵ\epsilonY−fθ(X)Y−fθ(X)Y-f_{\boldsymbol{\theta}}(X)XXXθ0θ0\boldsymbol{\theta_0}ϵϵ\epsilonfθ0(X)=E[Y|X]fθ0(X)=E[Y|X]f_{\boldsymbol{\theta_0}}(X)=E[Y|X] Y=E[Y|X]+ϵY=E[Y|X]+ϵY=E[Y|X]+\epsilon 上記の2つのプロパティがあります。

3
確率の収束について
ましょう{Xn}n≥1{Xn}n≥1\{X_n\}_{n\geq 1}ランダム変数STの配列であるXn→aXn→aX_n \to a確率で&gt; 0は固定された定数です。私は次を見せようとしています: √a&gt;0a&gt;0a>0Xn−−−√→a−−√Xn→a\sqrt{X_n} \to \sqrt{a} と aXn→1aXn→1\frac{a}{X_n}\to 1 両方の確率。私の論理が健全かどうかを確認するためにここにいます これが私の仕事です 試行 最初の部分については、我々は持っています |Xn−−−√−a−−√|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn−−−√+a−−√|=ϵ|(Xn−−−√−sqrta)+2a−−√||Xn−a|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn+a|=ϵ|(Xn−sqrta)+2a||\sqrt{X_n}-\sqrt{a}|<\epsilon \impliedby |X_n-a|<\epsilon|\sqrt{X_n}+\sqrt{a}|=\epsilon|(\sqrt{X_n}-sqrt{a})+2\sqrt{a}| ≤ϵ|Xn−−−√−a−−√|+2ϵa−−√&lt;ϵ2+2ϵa−−√≤ϵ|Xn−a|+2ϵa&lt;ϵ2+2ϵa\leq \epsilon|\sqrt{X_n}-\sqrt{a}|+2\epsilon\sqrt{a}<\epsilon^2+2\epsilon\sqrt{a} お知らせ ϵ2+2ϵa−−√&gt;ϵa−−√ϵ2+2ϵa&gt;ϵa\epsilon^2+2\epsilon\sqrt{a}>\epsilon\sqrt{a} その後、 P(|Xn−−−√−a−−√|≤ϵ)≥P(|Xn−a|≤ϵa−−√)→1asn→∞P(|Xn−a|≤ϵ)≥P(|Xn−a|≤ϵa)→1asn→∞P(|\sqrt{X_n}-\sqrt{a}|\leq \epsilon)\geq P(|X_n-a|\leq \epsilon\sqrt{a})\to 1 \;\;as\;n\to\infty ⟹Xn−−−√→a−−√inprobability⟹Xn→ainprobability\implies \sqrt{X_n}\to\sqrt{a} \;\;in\;probability 第二部については、 |aXn−1|=|Xn−aXn|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn||aXn−1|=|Xn−aXn|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn||\frac{a}{X_n}-1|=|\frac{X_n-a}{X_n}|<\epsilon \impliedby |X_n-a|<\epsilon|X_n| ここで、Xn→aXn→aX_n \to a asn→∞n→∞n \to \infty、XnXnX_nは有界シーケンスです。つまり、実数が存在するM&lt;∞M&lt;∞M<\infty STは|Xn|≤M|Xn|≤M|X_n|\leq M。したがって、 確率で見ると、 P (| a|Xn−a|&lt;ϵ|Xn|⟸|Xn−a|&lt;ϵM|Xn−a|&lt;ϵ|Xn|⟸|Xn−a|&lt;ϵM|X_n-a|<\epsilon|X_n|\impliedby |X_n-a|<\epsilon MP(|aXn−1|&gt;ϵ)=P(|Xn−a|&gt;ϵ|Xn|)≤P(|Xn−a|&gt;ϵM)→0asn→∞P(|aXn−1|&gt;ϵ)=P(|Xn−a|&gt;ϵ|Xn|)≤P(|Xn−a|&gt;ϵM)→0asn→∞P(|\frac{a}{X_n}-1|>\epsilon)=P(|X_n-a|>\epsilon|X_n|)\leq …

1
N正規iidの積の近似分布?特殊なケースμ≈0
与えられた IID、及び、探しているもの:N≥30N≥30N\geq30Xn≈N(μX,σ2X)バツn≈N(μバツ、σバツ2)X_n\approx\mathcal{N}(\mu_X,\sigma_X^2)μX≈0μバツ≈0\mu_X \approx 0 正確な閉形式分布近似 YN=∏1NXnYN=∏1NXnY_N=\prod\limits_{1}^{N}{X_n} 同じ積の漸近(指数関数)近似 これは、より一般的な質問の特殊なケースです。μX≈0μX≈0\mu_X \approx 0


1
尤度比検定の規則性条件は何ですか
尤度比検定の漸近分布の規則性条件は何か教えてもらえますか? 私が見ているところはどこでも、「規則性の下」または「確率的規則性の下」と書かれています。正確な条件は何ですか?最初と2番目の対数尤度導関数が存在し、情報行列がゼロでないこと それとも完全に別のものですか?

1
二次形式の漸近正規性
ましょうから引き出されたランダムベクトルである。サンプル考えます。と定義し。ましょう= \ mathbb {E} _ {\ mathbf {X} \ SIM P} [\ mathbf {X}]:\ boldsymbol {\ MU}およびC = \ mathrm {COV} _ {\ mathbf {X} \シムP} [\ mathbf {x}、\ mathbf {x}]。xx\mathbf{x}PPP{xi}ni=1∼i.i.d.P{xi}i=1n∼i.i.d.P\{ \mathbf{x}_i \}_{i=1}^n \stackrel{i.i.d.}{\sim} Px¯n:=1n∑ni=1xix¯n:=1n∑i=1nxi\bar{\mathbf{x}}_n := \frac{1}{n} \sum_{i=1}^n \mathbf{x}_iC^:=1n∑ni=1(xi−x¯n)(xi−x¯n)⊤C^:=1n∑i=1n(xi−x¯n)(xi−x¯n)⊤\hat{C} := \frac{1}{n} \sum_{i=1}^n (\mathbf{x}_i - \bar{\mathbf{x}}_n) (\mathbf{x}_i - \bar{\mathbf{x}}_n)^\topμ:=Ex∼P[x]μ:=Ex∼P[x]\boldsymbol{\mu} := \mathbb{E}_{\mathbf{x}\sim …

2
より多くのデータが収集されると、尤度比はどうなりますか?
ましょう、及び密度も、あなたが持っていると仮定し、。尤度比 はどうなりますか?(収束しますか?何に?)GのHは、xはiは〜H I ∈ N N Πは iは= 1 fは(X I)fffggghhhxi∼hxi∼hx_i \sim hi∈Ni∈Ni \in \mathbb{N} n→∞∏i=1nf(xi)g(xi)∏i=1nf(xi)g(xi) \prod_{i=1}^n \frac{f(x_i)}{g(x_i)} n→∞n→∞n \rightarrow \infty たとえば、と仮定します。一般的なケースも興味深いです。h=gh=gh = g

2
ラテンハイパーキューブサンプリングの漸近
私が取り組んでいる問題の証拠を構築しようとしています。私がしている仮定の1つは、サンプリング元のポイントのセットが空間全体にわたって密であるということです。実際には、サンプル空間全体のポイントを取得するためにラテンハイパーキューブサンプリングを使用しています。私が知りたいのは、サンプルサイズを傾向がある場合、ラテンハイパーキューブサンプルがスペース全体に密集している場合です。もしそうなら、この事実の引用は大歓迎です。∞∞\infty

3
最大項の数
考えてみましょう ここで、X 1、… 、X Nはiidで、CLTが保持されます。 どれだけ多くの最大の用語を合計すると、合計の半分になりますか? たとえば、10 + 9 + 8≈(10 + 9 + 8 … + 1)/ 2:用語の30%が合計の約半分に達します。∑Ni=1|Xi|∑i=1N|Xi|\sum_{i=1}^N |X_i|X1,…,XNX1,…,XNX_1, \ldots, X_N≈≈\approx……\dots 定義する sumbiggest( j;X1…XN)≡sum of the j biggest of |X1|…|XN|sumbiggest( j;X1…XN)≡sum of the j biggest of |X1|…|XN| \qquad\text{sumbiggest( j}; X_1 \dots X_N ) \equiv \text{sum of the j biggest …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.