タグ付けされた質問 「estimators」

観測データに基づいて所定の量の推定値を計算するためのルール[Wikipedia]。


1
漸近的不偏性と一貫性の違いは何ですか?
それぞれが他を暗示していますか?そうでない場合、一方は他方を意味しますか?なぜ/そうでないのですか? この問題は、私がここに投稿した回答に対するコメントへの応答として生じました。 関連する用語をグーグル検索しても、特に役立つと思われるものは何も生成されませんでしたが、数学のスタック交換に関する回答に気付きました。しかし、この質問はこのサイトにも適切だと思いました。 コメントを読んだ後に編集する math.stackexchangeの回答と比較して、コメントスレッド@whuber linkedで扱われた問題のいくつかをカバーするために、私はより深い何かを求めていました。また、私が見ているように、math.stackexchangeの質問は、一貫性が漸近的に公平であることを意味するのではなく、理由について何かを説明していません。そこのOPも当然のことながら、漸近的な不偏性は一貫性を意味するものではないため、これまでのところ唯一の回答者はこれがなぜであるかについては触れていません。

3
AR(1)係数のOLS推定量が偏っているのはなぜですか?
OLSがAR(1)プロセスの偏った推定量を与える理由を理解しようとしています。検討 このモデルでは、厳密な外因性に違反しています。つまり、とは相関していますが、とは相関していません。しかし、これが本当なら、なぜ次の単純な導出が成り立たないのでしょうか? YTεT、YT-1εTPLIM βytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= \alpha + \beta y_{t-1} + \epsilon_{t}, \\ \epsilon_{t} &\stackrel{iid}{\sim} N(0,1). \end{aligned} ytyty_tϵtϵt\epsilon_tyt−1yt−1y_{t-1}ϵtϵt\epsilon_tプリムβ ^= Cov (yt、Yt − 1)Var (yt − 1)= Cov (α + βyt − 1+ ϵt、Yt − 1)Var (yt − 1)= β+ Cov (ϵt、Yt − 1)Var (yt − 1)= β。plim β^=Cov(yt,yt−1)Var(yt−1)=Cov(α+βyt−1+ϵt,yt−1)Var(yt−1)=β+Cov(ϵt,yt−1)Var(yt−1)=β. \begin{aligned} …

2
推定量が確率変数と見なされるのはなぜですか?
見積もりと見積もりについての私の理解:見積もり:見積もりを計算するためのルール見積もり:見積もりに基づく一連のデータから計算された値 これらの2つの項の間で、確率変数を指摘するように求められた場合、その値はデータセットのサンプルに基づいてランダムに変化するため、推定は確率変数であると言えます。しかし、私が与えられた答えは、推定量は確率変数であり、推定値は確率変数ではないということです。何故ですか ?

1
この推定量の分散は何ですか
関数fの平均、つまりを推定し ます。ここで、とは独立したランダム変数です。Iは、Fのサンプルを有するが、IIDないための:IID試料ありとそれぞれについてあるからサンプル:X Y Y 1、Y 2、… Y n Y i n i X X i 、1、X i 、2、… 、X i 、n iEX,Y[f(X,Y)]EX,Y[f(X,Y)]E_{X,Y}[f(X,Y)]XXXYYYY1,Y2,…YnY1,Y2,…YnY_1,Y_2,\dots Y_nYiYiY_ininin_iXXXXi,1,Xi,2,…,Xi,niXi,1,Xi,2,…,Xi,niX_{i,1},X_{i,2},\dots, X_{i,n_i} したがって、合計でサンプルf(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X_{1,1},Y_1) \dots f(X_{1,n_1},Y_1 ) \dots f(X_{i,j},Y_i) \dots f(X_{n,n_n},Y_n) 平均を推定するには、 明らかになので、は不偏推定量です。、つまり推定量の分散が何であるかを考えています。 EX、Y[μ]=EX、Y[F(X、Y)]μVR(μ)μ=∑i=1n1/n∗∑j=1nif(Xi,j,Yi)niμ=∑i=1n1/n∗∑j=1nif(Xi,j,Yi)ni\mu=\sum_{i=1}^n 1/n * \sum_{j=1}^{n_i}\frac{ f(X_{i,j},Y_i)}{n_i}EX,Y[μ]=EX,Y[f(X,Y)]EX,Y[μ]=EX,Y[f(X,Y)]E_{X,Y}[\mu]=E_{X,Y}[f(X,Y)]μμ\muVar(μ)Var(μ)Var(\mu) 編集2:これは正しい差異ですか? それつまり、n = 1ですべてのの場合、分散は平均の分散になります。また、の場合、式は推定量の分散の標準式になります。これは正しいです?どうすればそれを証明できますか? Var(μ)=VarY(μi)n+∑i=1nVarX(f(X,Yi)))ni∗n2Var(μ)=VarY(μi)n+∑i=1nVarX(f(X,Yi)))ni∗n2Var(\mu)=\frac{Var_Y(\mu_i)}{n}+\sum_{i=1}^n \frac{Var_X(f(X,Y_i)))}{n_i*n^2}ni=∞ni=∞n_i=\inftyni=1ni=1n_i=1 編集(これを無視): だから私はいくつかの進歩を遂げたと思います:最初にを定義してみましょう。μi=∑nij=1f(Xi,j,Yi)niμi=∑j=1nif(Xi,j,Yi)ni\mu_i=\sum_{j=1}^{n_i}\frac{ f(X_{i,j},Y_i)}{n_i}EX[f(X,Yi)]EX[f(X,Yi)]E_X[f(X,Y_i)] 標準的な分散式を使用して、次のように記述できます。 Var(μ)=1/n2∑l=1n∑k=1nCov(μl,μk)Var(μ)=1/n2∑l=1n∑k=1nCov(μl,μk)Var(\mu)=1/n^2 …

4
公平な推定者が一般の人にどのように説明するのですか?
仮定θがための不偏推定量ですθ。すると当然の、E [ θ | θ ] = θ。θ^θ^\hat{\theta}θθ\thetaE[θ^∣θ]=θE[θ^∣θ]=θ\mathbb{E}[\hat{\theta} \mid \theta] = \theta これを一般人にどのように説明しますか?過去には、私が言ったことは、あなたがの値の束平均場合であるθをサンプルサイズが大きくなるにつれて、あなたはより良い近似値取得θを。θ^θ^\hat{\theta}θθ\theta 私には、これは問題があります。私は私が実際にここに記述していますがあることのこのような現象だと思う漸近的に公平ではなく、単に公平、すなわち、というより、 θが上の可能性が依存しているN。limn→∞E[θ^∣θ]=θ,limn→∞E[θ^∣θ]=θ,\lim_{n \to \infty}\mathbb{E}[\hat{\theta} \mid \theta] = \theta\text{,}θ^θ^\hat{\theta}nnn では、公平な推定者が一般人にどのように説明するのでしょうか?

2
バイアスは、推定者の特性ですか、それとも特定の推定値ですか?
例として、観察されたが母集団R 2の偏った推定量であることを知っている学生によく遭遇します。次に、レポートを作成するときに、次のように言います。R2R2R^2R2R2R^2 「私が観察算出及び調整R 2が、それらは、観察されたバイアスの少量のみを示唆し、かなり類似していたR 2、我々が得た値」。R2R2R^2R2R2R^2R2R2R^2 一般的に、バイアスについて話すときは、通常、特定の推定値ではなく、推定量の特性について話していると思います。しかし、引用されたステートメントは、用語の誤用より上にありますか、それとも問題ありませんか?

1
root-nの一貫した推定量ですが、root-nは収束しませんか?
「root-n」の一貫した推定量という用語が何度も使われることを聞いたことがあります。私が指示したリソースから、「root-n」の一貫した推定量は次のことを意味していると思いました。 推定器は真の値に収束します(したがって、「一貫性」という言葉) 推定量はレートで収束し1 / n−−√1/n1/\sqrt{n} は収束しないので、これは私を困惑させますか?ここで重要な何かを見逃していますか?1 / n−−√1/n1/\sqrt{n}

2
最小推定量の改善
私が持っていると仮定しんnn推定するための正のパラメータμ1、μ2、。。。、μんμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_nおよびそれらの対応するんnn推定器によって生成公平推定値μ1^、μ2^、。。。、μん^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}、すなわちE[μ1^]=μ1E[μ1^]=μ1\mathrm E[\hat{\mu_1}]=\mu_1、E[μ2^]=μ2E[μ2^]=μ2\mathrm E[\hat{\mu_2}]=\mu_2など。 私は推定したいmin(μ1,μ2,...,μn)min(μ1,μ2,...,μn)\mathrm{min}(\mu_1,\mu_2,...,\mu_n)手での推定値を使用します。明確ナイーブ推定min(μ1^,μ2^,...,μn^)min(μ1^,μ2^,...,μn^)\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})として低いバイアスされる E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)\mathrm E[\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})]\leq \mathrm{min}(\mu_1,\mu_2,...,\mu_n) 私はまた、対応する推定の共分散行列があるとCov(μ1^,μ2^,...,μn^)=ΣCov(μ1^,μ2^,...,μn^)=Σ\mathrm{Cov}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}) = \Sigma手元。与えられた推定値と共分散行列を使用して、偏りのない(または偏りの少ない)最小推定値を取得することは可能ですか?

1
均一な収束を伴わない点ごとの収束の実用性
動機 モデル選択後の推論に関連して、Leeb&Pötscher(2005)は次のように書いています。 パラメータに関する均一性が(少なくとも局所的に)漸近分析の重要な問題であることは以前から知られていましたが、このレッスンは、多くの場合、点ごとの漸近結果(つまり、固定された各真のパラメータ値を保持する結果)。幸運なことに、この健忘症とその結果としての実践は、十分に「規則的な」モデルで十分に「規則的な」推定量しか考慮されていない限り、劇的な結果はありません。ただし、モデル選択後の推定量は非常に「不規則」であるため、均一性の問題は復讐でここに浮上します。 バックグラウンド 均一な収束 推定器が分布内で一様に収束し(wrt)、確率変数に分布するとします。次に、与えられた精度に対して、サンプルサイズを常に見つけることができるため、すべてのに対して、の分布と(つまり、制限分布)は、ごとに最大でになります。αZε>0Nεα θ N(α)ZεN>Nθ^ん(α )θ^n(α)\hat\theta_n(\alpha)αα\alphaZZZε > 0ε>0\varepsilon>0NεNεN_{\varepsilon}αα\alphaθ^ん(α )θ^n(α)\hat\theta_{n}(\alpha)ZZZεε\varepsilonn > Nn>Nn>N これは実際に役立ちます: 実験を設計するとき、対応する見つけることにより、不正確さを希望する任意の小さいレベルの制限できます。N εεε\varepsilonNεNεN_{\varepsilon} サイズ与えられたサンプルについて、不正確さを制限するを見つけることができます。ε NNNNεNεN\varepsilon_N 点単位の(ただし不均一)収束 一方、推定量が点ごとに収束する(wrt)- 一様ではない -いくつかの確率変数に分布すると仮定します。不均一性に起因する、精度が存在任意のサンプルサイズになるように、我々は常に値見つけることができるそのような分布の距離そのと分布(すなわち、極限分布)少なくともあろういくつかのために。αZεN>0NαN ψ N(αN)ZεN>Nψ^ん(α )ψ^n(α)\hat\psi_n(\alpha)αα\alphaZZZεN> 0εN>0\varepsilon_N>0NNNαNαN\alpha_Nψ^ん(αN)ψ^n(αN)\hat\psi_{n}(\alpha_N)ZZZεε\varepsilonn > Nn>Nn>N いくつかの考え: これは大きさを教えてくれません。εNεN\varepsilon_N 実験を設計するとき、適切な見つけることによって、任意ので不正確さを制限することはできません。しかし、おそらくをいくつかの低レベルでバインドできれば、心配する必要はありません。しかし、私たちが望む場所に常にバインドできるとは限りません。N ε ε Nεε\varepsilonNεNεN_{\varepsilon}εNεN\varepsilon_N サイズ指定されたサンプルの不正確さを制限するが見つかるかどうかはわかりません。 NεNεN\varepsilon_NNNN ご質問 均一な収束の欠如により、推定量はほとんど役に立たなくなりますか? (おそらく、多くの論文が点ごとの収束に焦点を当てているため、答えは「いいえ」です...) いいえの場合、不均一収束推定量が役立ついくつかの基本的な例は何ですか? 参照: Leeb、H.&Pötscher、BM(2005)。モデルの選択と推論:事実とフィクション。 計量経済理論、21(01)、21-59。

1
残差eは誤差の推定量ですか?
この質問は私が始めた別のスレッドで出てきたので、もっと多くの人々の意見を得たいと思いました。私の質問は 残差eは誤差の推定量ですか?εϵ\epsilon 私が尋ねる理由は次のとおりです。OLSでは、残差の分散は回帰の分散として知られています(RSSは残差の二乗和です)。同様に、この分散の平方根であるは、回帰の標準誤差です。分散の平方根が標準誤差であることを、この分散が推定量の分散であることを意味するはずです。私たちはすでにそれが残差の分散であることを知っています。したがって、残差は推定量ですか?(私はを想定しています) √RSS(n − K)RSS(n−K)\frac{\text{RSS}}{(n - K )} RSSRSS(n − K)−−−−−√RSS(n−K)\sqrt\frac{\text{RSS}}{(n - K )} ϵRSS(n − K)RSS(n−K)\frac{\text{RSS}}{(n - K )}εϵ\epsilon 考え?

1
不十分な統計からの効率的な推定量
統計があり、パラメーターを推定するだけでは十分でないことが確かにわかっているとします。T(X)T(バツ)T(X)θθ\theta (凸状損失の下で)効率的な推定量ことはまだ可能ですか、それとも不可能であるとする定理(逆Rao-Blackwellのようなもの)がありますか?θ^(T(X))θ^(T(バツ))\hat\theta(T(X)) バイアスをかけない推定器または平均二乗誤差のCRLBを達成するという効率の定義のもとで質問に答えるか、実際の線で平均化された二乗平均誤差、またはそれが質問に答えるのに適した他のパフォーマンス測定に役立つ場合があります。

1
MLE of
LET PDFファイルとの分布からのランダムサンプルである X1,X2,X3,...,XnX1,X2,X3,...,XnX_{1},X_{2},X_{3},...,X_{n}f(x;α,θ)=e−x/θθαΓ(α)xα−1I(0,∞)(x),α,θ>0f(x;α,θ)=e−x/θθαΓ(α)xα−1I(0,∞)(x),α,θ>0f(x;\alpha,\theta)=\frac{e^{-x/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}I_{(0,\infty)}(x ),\alpha,\theta>0 およびの最尤推定量をます。ましょうαα\alphaθθ\thetaΨ(α)=dΓ(α)dαΨ(α)=dΓ(α)dα\Psi(\alpha)=\frac{d\Gamma(\alpha)}{d\alpha} 私の試み、 L(α,θ)===∏i=1nf(xi)∏i=1ne−xi/θθαΓ(α)xα−1i1Γn(α)⋅θnα(∏i=1nxi)α−1exp(−∑i=1nxiθ)L(α,θ)=∏i=1nf(xi)=∏i=1ne−xi/θθαΓ(α)xiα−1=1Γn(α)⋅θnα(∏i=1nxi)α−1exp⁡(−∑i=1nxiθ)\begin{eqnarray*} \mathcal{L}(\alpha,\theta)&=&\prod_{i=1}^{n}f(x_i)\\ &=&\prod_{i=1}^{n}\frac{e^{-x_i/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x_i^{\alpha-1}\\ &=&\frac{1}{\Gamma^{n}(\alpha)\cdot \theta^{n \alpha}}(\prod_{i=1}^{n}x_i)^{\alpha-1}\exp(-\sum_{i=1}^{n}\frac{x_i}{\theta}) \end{eqnarray*} ℓ(α,θ)δℓ(α,θ)δθ1θ2∑i=1nxiθ^=====−nlog(Γ(α))−nαlog(θ)+(α−1)∑i=1nlog(xi)−1θ∑i=1nxi−nαθ+1θ2∑i=1nxi=0nαθ∑ni=1xinα1αx¯ℓ(α,θ)=−nlog⁡(Γ(α))−nαlog⁡(θ)+(α−1)∑i=1nlog⁡(xi)−1θ∑i=1nxiδℓ(α,θ)δθ=−nαθ+1θ2∑i=1nxi=01θ2∑i=1nxi=nαθθ^=∑i=1nxinα=1αx¯\begin{eqnarray*} \ell(\alpha,\theta)&=&-n\log(\Gamma(\alpha))-n\alpha\log(\theta)+(\alpha-1)\sum_{i=1}^{n}\log(x_i)-\frac{1}{\theta}\sum_{i=1}^{n}x_i\\ \frac{\delta \ell(\alpha,\theta)}{\delta \theta}&=&-\frac{n\alpha}{\theta}+\frac{1}{\theta^2}\sum_{i=1}^{n}x_i=0\\ \frac{1}{\theta^2}\sum_{i=1}^{n}x_i&=&\frac{n\alpha}{\theta}\\ \hat{\theta}&=&\frac{\sum_{i=1}^{n}x_i}{n\alpha}\\ &=&\frac{1}{\alpha}\bar{x}\\ \end{eqnarray*} dℓ(α,θ^)dαlog(α)−Γ′(α)Γ(α)===−n⋅Γ′(α)Γ(α)−nlog(1αx¯)+∑i=1nlog(xi)=0−n⋅Γ′(α)Γ(α)+nlog(α)−nlog(x¯)+∑i=1nlog(xi)=0log(x¯)−∑ni=1log(xi)ndℓ(α,θ^)dα=−n⋅Γ′(α)Γ(α)−nlog⁡(1αx¯)+∑i=1nlog⁡(xi)=0=−n⋅Γ′(α)Γ(α)+nlog⁡(α)−nlog⁡(x¯)+∑i=1nlog⁡(xi)=0log⁡(α)−Γ′(α)Γ(α)=log⁡(x¯)−∑i=1nlog⁡(xi)n\begin{eqnarray*} \frac{d \ell(\alpha,\hat{\theta})}{d\alpha}&=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}-n\log(\frac{1}{\alpha}\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ &=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}+n\log(\alpha)-n\log(\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ \log(\alpha)-\frac{\Gamma'(\alpha)}{\Gamma(\alpha)}&=&\log(\bar{x})-\frac{\sum_{i=1}^{n}\log(x_i)}{n} \end{eqnarray*} を見つけることができなくなった。第二に、質問で与えられているように、\ Psi(\ alpha)= \ frac {d \ Gamma(\ alpha)} {d \ alpha}の使い方がわかりません。誰かが私にそれを説明できることを願っています。αα\alphaΨ(α)=dΓ(α)dαΨ(α)=dΓ(α)dα\Psi(\alpha)=\frac{d\Gamma(\alpha)}{d\alpha} 前もって感謝します。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.