タグ付けされた質問 「unbiased-estimator」

平均で「真の値にヒットする」母集団パラメーターの推定量を指します。つまり、観測データ関数は、場合、パラメーター不偏推定量です。不偏推定量の最も単純な例は、母平均の推定量としてのサンプル平均です。 θ^θEθ^=θ

2
人口密度推定のモデル
(人口、面積、形状)のデータベースを使用して、人口/面積の一定値を各形状(国勢調査区、区域、郡、州などの多角形)に割り当てることにより、人口密度をマッピングできます。ただし、通常、人口はポリゴン内で均一に分布していません。 ダシメトリックマッピングは、補助データを使用してこれらの密度推定値を調整するプロセスです。この最近のレビューが示すように、それは社会科学の重要な問題です。 それでは、土地被覆の補助地図(またはその他の離散的な要因)を利用できると仮定します。最も単純なケースでは、水域のような明らかに居住できないエリアを使用して、人口がいない場所を特定し、それに応じて、すべての人口を残りのエリアに割り当てることができます。より一般的には、各センサスユニットに刻まれている表面領域を有する部分、。これにより、データセットはタプルのリストに追加されますjjjkkkxjixjix_{ji}i=1,2,…,ki=1,2,…,ki = 1, 2, \ldots, k (yj,xj1,xj2,…,xjk)(yj,xj1,xj2,…,xjk)(y_{j}, x_{j1}, x_{j2}, \ldots, x_{jk}) ここで、はユニットの母集団(エラーなしで測定されたと仮定)であり、厳密にはそうではありませんが、すべてのも正確に測定されたと仮定できます。これらの用語では、目的は各を合計に分割することですyjyjy_{j}jjjxjixjix_{ji}yjyjy_{j} yj=zj1+zj2+⋯+zjkyj=zj1+zj2+⋯+zjk y_j = z_{j1} + z_{j2} + \cdots + z_{jk} ここで、各およびは、土地被覆クラス存在するユニット内の人口を推定します。推定値に偏りがないことが必要です。このパーティションは、密度を国勢調査ポリゴンと土地被覆クラスの交点に割り当てることにより、人口密度マップを改良し。 、Z 、J 、I、J 、I 、Z 、J 、I / X jのI J 番目の I 番目zji≥0zji≥0z_{ji} \ge 0zjizjiz_{ji}jjjiiizji/xjizji/xjiz_{ji}/x_{ji}jthjthj^{\text{th}}ithithi^{\text{th}} この問題は、顕著な点で標準の回帰設定とは異なります。 各の分割は正確でなければなりません。 yjyjy_{j} すべてのパーティションのコンポーネントは非負でなければなりません。 (仮定により)どのデータにもエラーはありません。すべての人口カウントおよびすべての領域は正しいです。 x j iyjyjy_{j}xjixjix_{ji} 「インテリジェントダシメトリックマッピング」メソッドなど、ソリューションには多くのアプローチがありますが、私が読んだものはすべて、アドホックな要素と明らかなバイアスの可能性を持っています。私は、創造的で計算が扱いやすい統計的手法を示唆する答えを探しています。直接の適用は、cの …

4
一貫性のあるものと漸近的に偏らないものの違いを直感的に理解する
私は、一貫性のある用語と漸近的に偏りのない用語の違いと実際的な違いを直感的に理解し、感じるようにしています。私はそれらの数学的/統計的定義を知っていますが、私は直感的な何かを探しています。私には、それぞれの定義を見ると、ほとんど同じように見えます。違いは微妙なはずだと思いますが、わかりません。私は違いを視覚化しようとしていますが、それはできません。誰か助けてもらえますか?

1
Error In Variables Modelの偏りのない推定値よりも良い結果を達成する回帰のバイアス推定器
私はいくつかの研究のために、Error In Variableモデルのいくつかの合成データに取り組んでいます。現在、単一の独立変数があり、従属変数の真の値の分散を知っていると仮定しています。 したがって、この情報を使用して、従属変数の係数の不偏推定量を実現できます。 モデル: x~=x+e1x~=x+e1\tilde{x} = x + e_1 y=0.5x−10+e2y=0.5x−10+e2y = 0.5x -10 + e_2 ここで、 e1~N(0,σ2)e1~N(0,σ2)e_1\text{~}N(0,\sigma^2)のためのいくつかのσσ\sigma e2~N(0,1)e2~N(0,1)e_2\text{~}N(0,1) 値はここでy,x~y,x~y,\tilde{x}唯一各サンプル、またの真の値の標準偏差のために知られているxxxのサンプルのために知られている:σxσx\sigma_x。 私は偏っ(取得β OLSを使用して)係数をした後、使用して調整を行います。β^β^\hat{\beta} β′=β^∗σ^2x~σ2xβ′=β^∗σ^x~2σx2\beta' = \hat{\beta} * \frac{\hat{\sigma}_\tilde{x}^2}{\sigma_x^2} このモデルでは、係数の新しい不偏推定量がはるかに優れている(実際の値に近い)ことがわかりますが、バイアス推定量を使用するよりもMSEが悪化しています。 何が起こっている?偏った推定器よりも、偏った推定器よりも良い結果が得られると期待していました。 Matlabコード: reg_mse_agg = []; fixed_mse_agg = []; varMult = 1; numTests = 60; for dataNumber=1:8 reg_mses = []; fixed_mses = []; …


4
2つのランダム変数のうち小さい方の不偏推定量
仮定X∼N(μx,σ2x)X∼N(μx,σx2)X \sim \mathcal{N}(\mu_x, \sigma^2_x)とY∼N(μy,σ2y)Y∼N(μy,σy2)Y \sim \mathcal{N}(\mu_y, \sigma^2_y) z=min(μx,μy)z=min(μx,μy)z = \min(\mu_x, \mu_y)zzz 単純な推定量とサンプル手段である及び(一貫性のあるが)、例えば、付勢されています。をアンダーシュートする傾向があります。min(x¯,y¯)min(x¯,y¯)\min(\bar{x}, \bar{y})x¯x¯\bar{x}y¯y¯\bar{y}XXXYYYzzz 不偏推定量を考えることはできません。存在しますか?zzz 助けてくれてありがとう。

3
OLSは青です。しかし、偏りと直線性を気にしないとどうなりますか?
ガウスマルコフの定理は、OLS推定量が線形回帰モデルの最良の線形不偏推定量であることを示しています。 しかし、私は線形性と偏りを気にしないと仮定します。次に、Gauss-Markovの仮定またはその他の一般的な仮定の下で最も効率的な線形回帰モデルの推定値が他にありますか? もちろん、標準的な結果が1つあります。ガウスマルコフの仮定に加えて、エラーが正規分布していると仮定した場合、OLS自体が最良の不偏推定量です。他の特定のエラー分布については、対応する最尤推定量を計算できます。 しかし、私はいくつかの比較的一般的な状況でOLSよりも優れた推定器があるかどうか疑問に思っていましたか?

1
RのPROC Mixedとlme / lmerの違い-自由度
注:法的な理由で以前の質問を削除する必要があったため、この質問は再投稿です。 SASのPROC MIXED をR lmeのnlmeパッケージの関数と比較していると、やや紛らわしい違いを見つけました。より具体的には、異なるテストの自由度はとの間PROC MIXEDで異なり、lmeなぜだろうと思いました。 次のデータセットから開始します(以下のRコード)。 ind:測定が行われる個人を示す因子 fac:測定が行われる臓器 trt:治療を示す因子 y:連続応答変数 アイデアは、次の単純なモデルを構築することです: y ~ trt + (ind):indランダムな要因として y ~ trt + (fac(ind)):facにネストされたindランダムな要因として、 最後のモデルでは特異性が生じることに注意してください。とのyすべての組み合わせに対しての値は1つだけです。indfac 最初のモデル SASでは、次のモデルを作成します。 PROC MIXED data=Data; CLASS ind fac trt; MODEL y = trt /s; RANDOM ind /s; run; チュートリアルによると、使用しているRの同じモデルnlmeは次のようになります。 > require(nlme) > options(contrasts=c(factor="contr.SAS",ordered="contr.poly")) > m2<-lme(y~trt,random=~1|ind,data=Data) 両方のモデルは、係数とそのSEに対して同じ推定値を与えますがtrt、の効果に対してF検定を実行する場合、異なる自由度を使用します。 SAS …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
セットの測度の指数の偏りのない推定量?
設定我々は(測定及び適切行儀)を有すると仮定S⊆B⊂RnS⊆B⊂RnS\subseteq B\subset\mathbb R^n、BBBコンパクトです。さらに、ルベーグ測度λ (⋅ )についてBBB上の均一分布からサンプルを抽出でき、測度λ (B )がわかっていると仮定します。たとえば、おそらくBはSを含むボックス[ − c 、c ] nです。λ(⋅)λ(⋅)\lambda(\cdot)λ(B)λ(B)\lambda(B)BBB[−c,c]n[−c,c]n[-c,c]^nSSS 固定のためのα∈Rα∈R\alpha\in\mathbb R、推定する簡単な公正な方法があるe−αλ(S)e−αλ(S)e^{-\alpha \lambda(S)}均一の点サンプリングによってBBB、それらが内部または外部であるか否かをチェックSSS? なく、かなりの仕事をして何かの例として、仮定我々のサンプルkkkポイントp1,…,pk∼Uniform(B)p1,…,pk∼Uniform(B)p_1,\ldots,p_k\sim\textrm{Uniform}(B)。その後、我々は、モンテカルロ推定に使用することができλ(S)≈λ^:=#{pi∈S}kλ(B).λ(S)≈λ^:=#{pi∈S}kλ(B).\lambda(S)\approx \hat\lambda:= \frac{\#\{p_i\in S\}}{k}\lambda(B). 一方、しかし、 λはの不偏推定量であるλ(S)、私はそれがある場合だとは思わない電子-α λはの不偏推定量であるE-αλ(S)。このアルゴリズムを変更する方法はありますか?λ^λ^\hat\lambdaλ(S)λ(S)\lambda(S)e−αλ^e−αλ^e^{-\alpha\hat\lambda}e−αλ(S)e−αλ(S)e^{-\alpha\lambda(S)}

1
漸近的不偏性と一貫性の違いは何ですか?
それぞれが他を暗示していますか?そうでない場合、一方は他方を意味しますか?なぜ/そうでないのですか? この問題は、私がここに投稿した回答に対するコメントへの応答として生じました。 関連する用語をグーグル検索しても、特に役立つと思われるものは何も生成されませんでしたが、数学のスタック交換に関する回答に気付きました。しかし、この質問はこのサイトにも適切だと思いました。 コメントを読んだ後に編集する math.stackexchangeの回答と比較して、コメントスレッド@whuber linkedで扱われた問題のいくつかをカバーするために、私はより深い何かを求めていました。また、私が見ているように、math.stackexchangeの質問は、一貫性が漸近的に公平であることを意味するのではなく、理由について何かを説明していません。そこのOPも当然のことながら、漸近的な不偏性は一貫性を意味するものではないため、これまでのところ唯一の回答者はこれがなぜであるかについては触れていません。

2
ベイズ推定量は選択バイアスの影響を受けない
ベイズ推定量は選択バイアスの影響を受けませんか? 高次元での推定について論じているほとんどの論文、例えば全ゲノム配列データは、しばしば選択バイアスの問題を提起します。選択バイアスは、何千もの潜在的な予測子があるにもかかわらず、選択されるのはごくわずかであり、選択されたいくつかに対して推論が行われるという事実から生じます。したがって、プロセスは2つのステップで行われます。(1)予測子のサブセットを選択します。(2)選択セットに対して推論を実行します。たとえば、オッズ比を推定します。Dawidは、1994年のパラドックスペーパーで、不偏推定量とベイズ推定量に焦点を当てました。彼は問題を単純化して、治療効果かもしれない最大の効果を選択する。 次に、公平な推定者は選択バイアスの影響を受けると彼は言います。彼は例を使用しました: 次にZi∼N(δi,1),i=1,…,NZi∼N(δi,1),i=1,…,N Z_i\sim N(\delta_i,1),\quad i=1,\ldots,N ZiZiZ_iはに対してバイアスされ。ましょう 、推定 (但し付勢されているが確かに)\ max \ {\ delta_1、\ delta_2、\ ldots、\ delta_N \}の場合。このステートメントは、ジェンセンの不等式で簡単に証明できます。私たちは知っていたならばそのため、私は_ {\最大}、最大のインデックス\ delta_iは、我々だけで使用するZ_を{I _ {\最大}}公平であるその推定量として。しかし、これがわからないため、代わりに(積極的に)バイアスされる\ gamma_1(\ mathbf {Z})を使用します。δiδi\delta_iZ=(Z1,Z2,…,ZN)TZ=(Z1,Z2,…,ZN)T\mathbf{Z}=(Z_1,Z_2,\ldots,Z_N)^Tγ1(Z)=max{Z1,Z2,…,ZN}γ1(Z)=max{Z1,Z2,…,ZN} \gamma_1(\mathbf{Z})=\max\{Z_1,Z_2,\ldots,Z_N\} max{δ1,δ2,…,δN}max{δ1,δ2,…,δN}\max\{\delta_1,\delta_2,\ldots,\delta_N\}imaximaxi_{\max}δiδi\delta_iZimaxZimaxZ_{i_{\max}}γ1(Z)γ1(Z)\gamma_1(\mathbf{Z}) しかし、Dawid、Efron、および他の著者の懸念事項は、ベイズの推定者は選択バイアスの影響を受けないということです。を優先する場合、たとえば、ベイズ推定量はによって与えられ ここで、、は標準ガウスです。δiδi\delta_iδi∼g(.)δi∼g(.)\delta_i\sim g(.)δiδi\delta_iE{δi∣Zi}=zi+ddzim(zi)E{δi∣Zi}=zi+ddzim(zi) \text{E}\{\delta_i\mid Z_i\}=z_i+\frac{d}{dz_i}m(z_i) m(zi)=∫φ(zi−δi)g(δi)dδim(zi)=∫φ(zi−δi)g(δi)dδim(z_i)=\int \varphi(z_i-\delta_i)g(\delta_i)d\delta_iφ(.)φ(.)\varphi(.) 私たちは、新しい推定定義する場合はとして 何でもあなたが推定するのに選択しとは、選択がに基づいていた場合 と同じなります。これは、がで単調であるです。我々はまた、知っている shrinkes用語とゼロに向かって、δimaxδimax\delta_{i_{\max}}γ2(Z)=max{E{δ1∣Z1},E{δ2∣Z2},…,E{δN∣ZN}},γ2(Z)=max{E{δ1∣Z1},E{δ2∣Z2},…,E{δN∣ZN}}, \gamma_2(\mathbf{Z})=\max\{\text{E}\{\delta_1\mid Z_1\},\text{E}\{\delta_2\mid Z_2\},\ldots,\text{E}\{\delta_N\mid Z_N\}\}, iiiδimaxδimax\delta_{i_{\max}}γ1(Z)γ1(Z)\gamma_1(\mathbf{Z})iiiγ2(Z)γ2(Z)\gamma_2(\mathbf{Z})γ2(Z)γ2(Z)\gamma_2(\mathbf{Z})ZiZiZ_iE{δi∣Zi}E{δi∣Zi}\text{E}\{\delta_i\mid Z_i\}ZiZiZ_iddzim(zi)ddzim(zi)\frac{d}{dz_i}m(z_i)これにより、の正のバイアスの一部が減少し。しかし、ベイズ推定量は選択バイアスの影響を受けないと結論付けるにはどうすればよいでしょうか。本当にわかりません。ZiZiZ_i

2
制限付き最尤法が分散のより良い(バイアスされていない)推定値をもたらすのはなぜですか?
Rのlme4パッケージに関するDoug Batesの理論の論文を読んで、混合モデルの要点をよりよく理解し、制限付き最尤(REML)を使用して分散を推定することについて、より理解したい興味深い結果に出会いました。 REML基準のセクション3.3で、分散推定におけるREMLの使用は、近似線形モデルの残差から分散を推定するときの自由度補正の使用と密接に関連していると述べています。特に、「通常はこの方法で導出されることはありませんが」、「REML基準」の最適化を通じて分散を推定することにより、自由度補正を導出できます(式(28))。REML基準は基本的には尤度だけですが、線形フィットパラメーターは、(バイアスされたサンプル分散を与えるフィット推定に等しく設定する代わりに)マージナライズすることで削除されました。 私は計算を行い、固定効果のみの単純な線形モデルに対して主張された結果を検証しました。私が苦労しているのは解釈です。適合パラメーターが取り除かれた可能性を最適化することによって分散推定値を導き出すことが自然であるいくつかの視点がありますか?確率を事後として考え、フィット変数をランダム変数であるかのように取り除いているかのように、それはベイジアンのような感じです。 それとも正当化は主に数学的なものですか?それは線形の場合に機能しますが、一般化も可能ですか?

2
AR(
AR()モデルを考えます(単純化のためにゼロ平均を想定しています)。ppp xt=φ1xt−1+…+φpxt−p+εtxt=φ1xt−1+…+φpxt−p+εt x_t = \varphi_1 x_{t-1} + \dotsc + \varphi_p x_{t-p} + \varepsilon_t OLS推定量(に相当する条件のための最尤推定)で述べたように、バイアスされることが知られている最近のスレッド。φ:=(φ1,…,φp)φ:=(φ1,…,φp)\mathbf{\varphi} := (\varphi_1,\dotsc,\varphi_p) (奇妙なことに、私はハミルトンの「時系列分析」や他のいくつかの時系列の教科書で言及されたバイアスを見つけることができませんでした。しかし、それは様々な講義ノートや学術記事、例えばこれで見つけることができます。) AR(p)の正確な最尤推定量がバイアスされているかどうかを確認できませんでした。したがって、最初の質問です。ppp 質問1:です正確な最大ARの尤推定量()モデルの自己回帰パラメータφ 1、... 、φ P偏った?(AR(p)プロセスは定常的であると仮定します。それ以外の場合、定常領域で制限されているため、推定量は一貫していません。たとえば、Hamilton "Time Series Analysis"、p。123を参照してください。)pppφ1,…,φpφ1,…,φp\varphi_1,\dotsc,\varphi_pppp また、 質問2:合理的に単純な不偏推定量はありますか?

1
この推定量の分散は何ですか
関数fの平均、つまりを推定し ます。ここで、とは独立したランダム変数です。Iは、Fのサンプルを有するが、IIDないための:IID試料ありとそれぞれについてあるからサンプル:X Y Y 1、Y 2、… Y n Y i n i X X i 、1、X i 、2、… 、X i 、n iEX,Y[f(X,Y)]EX,Y[f(X,Y)]E_{X,Y}[f(X,Y)]XXXYYYY1,Y2,…YnY1,Y2,…YnY_1,Y_2,\dots Y_nYiYiY_ininin_iXXXXi,1,Xi,2,…,Xi,niXi,1,Xi,2,…,Xi,niX_{i,1},X_{i,2},\dots, X_{i,n_i} したがって、合計でサンプルf(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X_{1,1},Y_1) \dots f(X_{1,n_1},Y_1 ) \dots f(X_{i,j},Y_i) \dots f(X_{n,n_n},Y_n) 平均を推定するには、 明らかになので、は不偏推定量です。、つまり推定量の分散が何であるかを考えています。 EX、Y[μ]=EX、Y[F(X、Y)]μVR(μ)μ=∑i=1n1/n∗∑j=1nif(Xi,j,Yi)niμ=∑i=1n1/n∗∑j=1nif(Xi,j,Yi)ni\mu=\sum_{i=1}^n 1/n * \sum_{j=1}^{n_i}\frac{ f(X_{i,j},Y_i)}{n_i}EX,Y[μ]=EX,Y[f(X,Y)]EX,Y[μ]=EX,Y[f(X,Y)]E_{X,Y}[\mu]=E_{X,Y}[f(X,Y)]μμ\muVar(μ)Var(μ)Var(\mu) 編集2:これは正しい差異ですか? それつまり、n = 1ですべてのの場合、分散は平均の分散になります。また、の場合、式は推定量の分散の標準式になります。これは正しいです?どうすればそれを証明できますか? Var(μ)=VarY(μi)n+∑i=1nVarX(f(X,Yi)))ni∗n2Var(μ)=VarY(μi)n+∑i=1nVarX(f(X,Yi)))ni∗n2Var(\mu)=\frac{Var_Y(\mu_i)}{n}+\sum_{i=1}^n \frac{Var_X(f(X,Y_i)))}{n_i*n^2}ni=∞ni=∞n_i=\inftyni=1ni=1n_i=1 編集(これを無視): だから私はいくつかの進歩を遂げたと思います:最初にを定義してみましょう。μi=∑nij=1f(Xi,j,Yi)niμi=∑j=1nif(Xi,j,Yi)ni\mu_i=\sum_{j=1}^{n_i}\frac{ f(X_{i,j},Y_i)}{n_i}EX[f(X,Yi)]EX[f(X,Yi)]E_X[f(X,Y_i)] 標準的な分散式を使用して、次のように記述できます。 Var(μ)=1/n2∑l=1n∑k=1nCov(μl,μk)Var(μ)=1/n2∑l=1n∑k=1nCov(μl,μk)Var(\mu)=1/n^2 …

4
公平な推定者が一般の人にどのように説明するのですか?
仮定θがための不偏推定量ですθ。すると当然の、E [ θ | θ ] = θ。θ^θ^\hat{\theta}θθ\thetaE[θ^∣θ]=θE[θ^∣θ]=θ\mathbb{E}[\hat{\theta} \mid \theta] = \theta これを一般人にどのように説明しますか?過去には、私が言ったことは、あなたがの値の束平均場合であるθをサンプルサイズが大きくなるにつれて、あなたはより良い近似値取得θを。θ^θ^\hat{\theta}θθ\theta 私には、これは問題があります。私は私が実際にここに記述していますがあることのこのような現象だと思う漸近的に公平ではなく、単に公平、すなわち、というより、 θが上の可能性が依存しているN。limn→∞E[θ^∣θ]=θ,limn→∞E[θ^∣θ]=θ,\lim_{n \to \infty}\mathbb{E}[\hat{\theta} \mid \theta] = \theta\text{,}θ^θ^\hat{\theta}nnn では、公平な推定者が一般人にどのように説明するのでしょうか?

2
平均の2乗に対する偏りのない正の推定量
我々は真(不明)との分布からのiidサンプルへのアクセス権を持っていると仮定平均と分散、と我々は推定したいμ 2。μ 、σ2μ,σ2\mu, \sigma^2μ2μ2\mu^2 この量の偏りのない、常に正の推定量を構築するにはどうすればよいですか? サンプルの二乗を取る平均、ESP、バイアスされていると量を過大評価します。場合μは 0に近いですし、σ 2が大きいです。μ〜2μ~2\tilde{\mu}^2μμ\muσ2σ2\sigma^2 これはささいな質問かもしれませんが、私のグーグルスキルは私estimator of mean-squaredが戻ってくるだけで私を失望させていますmean-squarred-error estimators それが問題を簡単にする場合、基礎となる分布はガウス分布であると見なすことができます。 解決: の不偏推定構築することが可能である。クルムジーの答えを見てくださいμ2μ2\mu^2 の公平、常に正の推定構築することはできません真の平均が0であるとき、これらの要件が競合しているよう。ウィンクの答えを見るμ2μ2\mu^2

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.