タグ付けされた質問 「type-i-and-ii-errors」

タイプI:帰無仮説が真の場合にそれを拒否します。タイプII:対立仮説が真の場合に帰無仮説を棄却しない。

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
比率と二項分布によるサンプルサイズの決定
私は、SokalとRohlfによるBiometry(3e)という本を使用して、いくつかの統計を学ぼうとしています。これは、確率、二項分布、およびポアソン分布をカバーする第5章の演習です。 この質問への答えを生成する式があることを理解しています: ただし、この式はこのテキストにはありません。確率、望ましい信頼レベル、および二項分布のみを知ってサンプルサイズを計算する方法を知りたいのですが。私が指摘できるこのトピックをカバーするリソースはありますか?私はGoogleを試しましたが、これまでに見たものには、この問題でアクセスできない情報が必要です。n=4(p–√−q√)2n=4(p−q)2 n = \frac 4 {( \sqrt{p} - \sqrt{q} )^2}

2
タイプIIエラーが統計文献でそれほど強調されていないのはなぜですか?
さまざまな研究記事で、タイプIのエラー(アルファ値で示される)が説明される多くのケースを見てきました。私は、研究者が力、またはタイプIIエラーを考慮することはまれであることに気づきました。 タイプIIのエラーは大きな問題になる可能性がありますか?対立仮説が実際に偽であった場合、それを誤って却下しました。なぜベータ値ではなくアルファ値がそれほど強調されるのですか? 初年度の統計をとったとき、ベータは教えられなかった-アルファのみ。私はこれら2つのエラーは同等に扱われるべきだと感じています。しかし、アルファのみが強調されているようです。

2
回帰係数がグループ化変数によってモデレートされるかどうかをテストする方法は?
緩和変数(たとえば性別)に基づいて、サンプルの2つのグループで回帰を実行しました。あるセットで回帰の重要性が失われ、他のセットでは失われるかどうかを確認することで、モデレート効果の簡単なテストを行っています。 Q1:上記の方法は有効です。 Q2:私の研究の信頼度は95%に設定されています。1つのグループでは、回帰は.000で有意です。もう1つは0.038で有意なので、両方の回帰を有意として受け入れなければならず、緩和効果はないと私は信じています。回帰を受け入れることは重要ですが、0.01 amではないことが証明されていますが、タイプIエラーを引き起こしています(偽の引数を受け入れます)?

2
タイプIのエラー率は、アルファまたは最大でアルファですか?
ウィキペディアのp値のページによると: p値が正しく計算されると、このテストにより、タイプIのエラー率が最大でことが保証されます。αα\alpha ただし、ページのさらに下には、この式が示されています。 Pr(RejectH|H)=Pr(p≤α|H)=αPr(RejectH|H)=Pr(p≤α|H)=α\Pr(\mathrm{Reject}\; H|H) = \Pr(p \leq \alpha|H) = \alpha 「タイプ1エラーレート」= Pr(RejectH|H)Pr(RejectH|H)\Pr(\mathrm{Reject}\; H|H)すると、タイプ1エラーレートはαα\alphaあり、「多くてもαα\alpha」ではないことがわかります。そうでない場合、式は次のようになります。 Pr(RejectH|H)≤αPr(RejectH|H)≤α\Pr(\mathrm{Reject}\; H|H) \leq \alpha 私の誤解はどこにありますか?

3
H0が既に拒否されている場合、t検定パワーが比較的小さいことを気にする必要がありますか?
2つの非常に小さなサンプル(それぞれ)があり、それらの2つのサンプルのt検定検出力は0.49です。これは比較的小さい(Rで計算)。ただし、ウェルチ2標本のt検定ではp値が0.032であるため、帰無仮説を棄却できます。0.032n=7n=7n=7power.t.test()0.0320.0320.032 さて、私は力が小さいことを気にする必要がありますか? 私の理解は、power = 1−β1−β1 - \betaここで、ββ\betaはタイプIIエラーの確率です。ここで、それは私のテストがH0を拒否する必要がある場合の約50%でH0を拒否できないことを意味するので、特定のサンプルがH0を拒否できない場合は特に心配する必要があります。しかし、私の特定のサンプルの場合、私は幸運であるように見え、私のいくらかパワーが不足しているt検定は拒否に成功したので、ベータについて気にする必要はなく、サンプルで大きな違いを示すことができるのを楽しむことができます手段。 私の解釈は正しいですか?それとも、何か重要なことを見逃していますか?

1
低いサンプルサイズ:LR vs F-テスト
皆さんの中には、この素晴らしい論文を読んだことがあるかもしれません。 O'Hara RB、Kotze DJ(2010)カウントデータをログ変換しません。生態学と進化の方法1:118–122。クリック。 現在、私は、変換されたデータの負の二項モデルをガウスモデルと比較しています。O'Hara RBと​​は異なり、Kotze DJ(2010)は、サンプルサイズが低く、仮説検定のコンテキストでの特殊なケースを調べています。 両方の違いを調査するために使用されたシミュレーション。 タイプIエラーシミュレーション すべての計算はRで行われました。 1つのコントロールグループ(μcμcμ_c)と5つの処理グループ(μ1−5μ1−5μ_{1−5})を含む要因計画のデータをシミュレーションしました。存在量は、固定分散パラメーター(θ= 3.91)の負の二項分布から抽出されました。存在量はすべての処理で同等でした。 シミュレーションでは、サンプルサイズ(3、6、9、12)とアバンダンス(2、4、8、...、1024)を変化させました。100のデータセットが生成され、負の二項GLM(MASS:::glm.nb())、準ポアソンGLM(glm(..., family = 'quasipoisson')およびガウスGLM +対数変換データ(lm(...))を使用して分析されました。 尤度比検定(lmtest:::lrtest())(ガウスGLMおよび否定ビンGLM)とF検定(ガウスGLMおよび準ポアソンGLM)(anova(...test = 'F'))を使用して、モデルをnullモデルと比較しました。 必要に応じてRコードを提供できますが、私の関連する質問についてはこちらもご覧ください。 結果 サンプルサイズが小さい場合、LRテスト(緑-負のビン;赤-ガウス)により、Type-Iエラーが増加します。F検定(青-ガウス、紫-準ポアソン)は、小さいサンプルサイズでも機能するようです。 LRテストでは、LMとGLMの両方で同様の(増加した)タイプIエラーが発生します。 興味深いことに、準ポアソンはかなりうまく機能します(ただし、F検定でも機能します)。 予想どおり、サンプルサイズが増加すると、LR-Testも適切に実行されます(漸近的に正しい)。 サンプルサイズが小さい場合、GLMにはいくつかの収束の問題(表示されていません)がありましたが、存在量が少ない場合のみであるため、エラーの原因は無視できます。 ご質問 データがneg.binから生成されたことに注意してください。モデル-したがって、GLMが最高のパフォーマンスを発揮することを期待していました。ただし、この場合、変換された存在量の線形モデルのパフォーマンスが向上します。準ポアソン(F検定)についても同様です。これは、F検定が小さいサンプルサイズでよりよく機能しているためと考えられます。これは正しいですか、なぜですか LR-Testは、症状がないため、うまく機能しません。改善の可能性はありますか? GLMのパフォーマンスが向上する可能性のある他のテストはありますか?GLMのテストを改善するにはどうすればよいですか? サンプルサイズが小さいカウントデータには、どのタイプのモデルを使用する必要がありますか? 編集: 興味深いことに、二項GLMのLR-Testはかなりうまく機能します。 ここで、上記と同様の設定で、二項分布からデータを描画します。 赤:ガウスモデル(LRテスト+アルクシン変換)、黄土色:二項GLM(LRテスト)、緑:ガウスモデル(Fテスト+アルクシン変換)、青:準二次GLM(Fテスト)、紫:非パラメトリック。 ここでは、ガウスモデル(LR-Test + arcsin変換)のみがType Iエラーの増加を示していますが、GLM(LR-Test)はType Iエラーの点でかなり優れています。そのため、ディストリビューションにも違いがあるようです(または、glmとglm.nbの違いはありますか?)。

2
p値も偽の発見率ですか?
でhttp://surveyanalysis.org/wiki/Multiple_Comparisons_(Post_Hoc_Testing)それは述べて たとえば、p値が0.05であり、それが有意であると結論付けた場合、誤った発見の確率は、定義により、0.05です。 私の質問:私は常に、誤った発見はタイプIのエラーであると常に考えていました。これは、ほとんどのテストで選択された有意水準と同じです。P値は、サンプルから計算された値です。確かに、ウィキペディアは述べています p値は、ネイマンピアソンアプローチの有意水準またはタイプIエラー率[誤検知率] と混同しないでください。 "αα\alpha では、なぜリンクされた記事はタイプIのエラー率がp値によって与えられると主張しているのですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.