タグ付けされた質問 「unbiased-estimator」

平均で「真の値にヒットする」母集団パラメーターの推定量を指します。つまり、観測データ関数は、場合、パラメーター不偏推定量です。不偏推定量の最も単純な例は、母平均の推定量としてのサンプル平均です。 θ^θEθ^=θ

3
SPSSを使用した2x3混合設計ANOVAの事後テスト?
実験中に3回評価された10人の参加者の2つのグループがあります。グループ間および3つの評価全体の違いをテストするために、group(コントロール、実験)、time(最初、2、3)、およびを使用して2x3混合設計ANOVAを実行しましたgroup x time。両方timeとgroup有意な相互作用があったほか、重大な結果group x time。 グループメンバーシップに関しても、3回の評価の違いをさらにチェックする方法をよく知りません。実際、最初は、ANOVAのオプションで、ボンフェローニの補正を使用してすべての主要な効果を比較することだけを指定しました。しかし、この方法で、グループを区別せずに、サンプル全体の時間の違いをこのように比較したことに気付きましたね。 したがって、可能な解決策を見つけるためにインターネットでたくさん検索しましたが、結果はほとんどありませんでした。私と同じようなケースは2つしか見つかりませんでしたが、解決策は逆です! 記事では、混合設計の後、著者らは被験者ごとに1つずつ、2回の反復測定ANOVAを事後的に実行しました。このようにして、2つのグループは修正なしで個別に分析されます。 インターネットのガイドでは、混合ANOVAの実行中に、SPSS構文のCOMPARE(time) ADJ(BONFERRONI)直後にを手動で追加すると述べています/EMMEANS=TABLES(newgroup*time)。このように、3つの時間はグループごとに個別に比較されます。ボンフェローニ補正を使用すると、私は正しいのでしょうか。 どう思いますか?どちらが正しい方法でしょうか?
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

2
サンプルの尖度は絶望的に偏っていますか?
かなり歪んだ確率変数の尖度のサンプルを調べていますが、結果に一貫性がないようです。問題を簡単に説明するために、対数正規RVのサンプル尖度を調べました。R(私はゆっくりと学習しています): library(moments); samp_size = 2048; n_trial = 4096; kvals <- rep(NA,1,n_trial); #preallocate for (iii in 1:n_trial) { kvals[iii] <- kurtosis(exp(rnorm(samp_size))); } print(summary(kvals)); 私が得る要約は Min. 1st Qu. Median Mean 3rd Qu. Max. 11.87 28.66 39.32 59.17 61.70 1302.00 Wikipediaによると、この対数正規RVの尖度は約114であるはずです。明らかに、サンプルの尖度は偏っています。 いくつかの調査を行ったところ、サンプルの尖度はサンプルサイズが小さいと偏っていることがわかりました。e1071CRAN のパッケージで提供される「G2」推定量を使用して、このサンプルサイズで非常に類似した結果を得ました。 質問:次のどれが起こっているのかを特徴づけます: サンプルの尖度の標準誤差は、このRVの場合は非常に大きくなります(標準的な誤差の一般的な推定値は)。または、この研究では使用したサンプルが少なすぎます(2048)。1/n−−√1/n1/\sqrt{n} サンプルの尖度のこれらの実装は、たとえば Terriberryの方法(Welfordの方法がサンプルの分散の単純な方法よりも優れた結果を与えるのとほぼ同じ方法)によって修正される可能性がある数値の問題に悩まされています。 人口尖度を誤って計算しました。(痛い) サンプルの尖度は本質的にバイアスされており、このような小さなサンプルサイズでは修正できません。

2
分散のMicrosoft Excel数式
Microsoft Excelヘルプによると: VARは次の式を使用します。 ここで、xはサンプル平均AVERAGE(数値1、数値2、…)で、nはサンプルサイズです。 分母はn-1ではなくnにすべきではないでしょうか。

2
バイアス/分散のトレードオフ計算
私は問題をアンダーフィッティング/オーバーフィッティングの用語で理解していますが、その背後にある正確な数学を理解するのに苦労しています。私はいくつかのソースをチェックしました(ここでは、ここでは、ここでは、こことここでは、)が、正確にバイアスと分散のような互いに対向なぜ私はまだ例えば、表示されませんexexe^x そして e−xe−xe^{-x} 行う: ソース 誰もが次の方程式を導き出しているようです(既約エラーを省略して ϵϵ\epsilonここ) 次に、ポイントをホームに移動して、右側の用語が動作する理由を正確に示す代わりに、この世界の不完全さ、そして正確かつ普遍的であることが同時に不可能であることはどれほど不可能であるかについてさまよい始めます。E[(θ^n−θ)2]=E[(θ^n−E[θ^n])2]+(E[θ^n−θ])2E[(θ^n−θ)2]=E[(θ^n−E[θ^n])2]+(E[θ^n−θ])2\newcommand{\var}{{\rm Var}} E[(\hat{\theta}_n - \theta)^2]=E[(\hat{\theta}_n - E[\hat{\theta}_n])^2] + (E[\hat{\theta}_n - \theta])^2 明らかな反例 たとえば、平均が標本平均を使用して推定されている、つまりそして、場合: 以来、および、我々は: μμ\muX¯n=1n∑i=1nXiX¯n=1n∑i=1nXi\bar{X}_n = \frac{1}{n}\sum\limits_{i=1}^{n}X_iθ≡μθ≡μ\theta\equiv\muθ^n≡X¯nθ^n≡X¯n\hat{\theta}_n\equiv\bar{X}_nMSE=Var(X¯n−μ)+(E[X¯n]−μ)2MSE=Var(X¯n−μ)+(E[X¯n]−μ)2MSE = \var(\bar{X}_n - \mu) + (E[\bar{X}_n] - \mu)^2 E[X¯n]=μE[X¯n]=μE[\bar{X}_n]=\muVar(μ)=0Var(μ)=0\var(\mu) = 0MSE=Var(X¯n)=1nVar(X)−→−−n→∞0MSE=Var(X¯n)=1nVar(X)→n→∞0MSE = \var(\bar{X}_n) = \frac{1}{n}\var(X)\xrightarrow[n\to\infty]{}0 したがって、質問は次のとおりです。 なぜ正確と同時に減少させることができないのですか?E[(θ^n−E[θ^n])2]E[(θ^n−E[θ^n])2]E[(\hat{\theta}_n - E[\hat{\theta}_n])^2]E[θ^n−θ]E[θ^n−θ]E[\hat{\theta}_n - \theta] なぜ公平な推定量を取り、サンプルサイズを増やすことで分散を減らすことができないのでしょうか。

1
線形回帰に関してOLS推定器のバイアスがゼロに等しいのはなぜですか?
バイアス分散のトレードオフの概念を理解しています。私の理解に基づくバイアスは、単純な分類子(例:線形)を使用して複雑な非線形決定境界をキャプチャするため、エラーを表します。そのため、OLS推定器には高いバイアスと低い分散があると期待していました。 しかし、私にはOLS = 0のバイアスが意外であるというガウスマルコフ定理に出くわしました。OLSのバイアスが高いと予想していたため、OLSのバイアスがどのようにゼロであるかを説明してください。バイアスの理解が間違っているのはなぜですか?

1
公平な推定者がいることはいつ重要ですか?
偏りのない見積もりよりも偏った見積もりを好む場合についていくつかの質問と回答がありますが、逆の質問には何も見つかりませんでした。 どのような状況で、公平な推定者のみを考慮することが重要ですか? 公平性の概念は入門的統計コースであることに多くの重点が置かれていますが、これについての説得力のある抗弁を読んだことはありません。通常、データを収集するのは1度だけなので、平均して正確であると便利な場合があります(心理的な快適さのほかに)。どのような状況で、平均的に正しい必要があるでしょうか? 私は哲学的な議論を受け入れますが、研究や業界の具体的な例を好むでしょう。

2
推定量が不偏であることを証明した場合、それはパラメーター推定量が不偏であることを証明しますか?
LETのPDF有するIIDランダム変数である、、及び。バツ私バツ私X_if(x | θ )f(バツ|θ)f(\mathbf{x}|\theta)E(バツ私)= 6θ2E(バツ私)=6θ2E(X_i) = 6\theta^2θ > 0θ>0\theta > 0 Iパラメータ(のための推定計算したの)あることを。これが不偏推定量であることを証明するには、であることを証明する必要があります。ただし、であるため、θθ\thetaf(x | θ )f(バツ|θ)f(\mathbf{x}|\theta)θ^=バツ¯/ 6−−−√θ^=バツ¯/6\hat{\theta} = \sqrt{\bar{x}/6}E(θ^)=E(x¯/6−−−√)E(θ^)=E(x¯/6)E(\hat{\theta}) = E\left(\sqrt{\bar{x}/6}\right)θ^2=x¯/6θ^2=x¯/6\hat{\theta}^2 = \bar{x}/6E(θ^2)=E(バツ¯/6)=16E(∑Xin)=16n∑E(Xi)=16nn6θ2=θ2.E(θ^2)=E(x¯/6)=16E(∑Xin)=16n∑E(Xi)=16nn6θ2=θ2.\begin{align} E(\hat{\theta}^2) &= E(\bar{x}/6) \\ &=\frac{1}{6}E\left(\frac{\sum X_i}{n}\right)\\ &=\frac{1}{6n}\sum E(X_i) \\ &=\frac{1}{6n}n6\theta^2 \\&= \theta^2.\end{align} 一般的に、証明証明と同じではないため、またあり得る。ただし、この場合はです。x2=4x2=4x^2 =4x=2x=2x=2xxx−2−2-2θ>0θ>0\theta>0 私はが不偏であることを示しましたが、これはが不偏であることを示すのに十分ですか?θ^2θ^2\hat{\theta}^2θ^θ^\hat{\theta}

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.