タグ付けされた質問 「sample-size」

このタグは非常にあいまいです。質問がサンプルサイズに関するもので、[小さいサンプル]、[大きいデータ]、[パワー分析]、[パワー]、[未定]、または[アンバランスクラス]のどれも適切でない場合に使用します。

4
与えられた推定手法とパラメータに対して、サンプルはどのくらいの大きさでなければなりませんか?
与えられた数のパラメーターを使用してモデルを推定するために、サンプルの大きさを判断するための経験則、または何らかの方法さえありますか? したがって、たとえば、5つのパラメーターを使用して最小二乗回帰を推定する場合、サンプルはどのくらいの大きさである必要がありますか? 使用している推定手法(たとえば、最尤法、最小二乗法、GMM)、または実行するテストの数または数は重要ですか?決定を行う際にサンプルの変動性を考慮に入れる必要がありますか?

1
Kを大きく選択すると交差検定スコアが低下するのはなぜですか?
ボストン住宅データセットとRandomForestRegressor(デフォルトパラメータ付きの)scikit-learnで遊んでみて、奇妙なことに気付きました。フォールドの数を10を超えて増やすと、平均クロス検証スコアが減少しました。私のクロス検証戦略は次のとおりです。 cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) num_cvs変化したところ… 。k-fold CVのトレイン/テスト分割サイズの動作をミラーリングtest_sizeする1/num_cvsように設定しました。基本的に、k倍のCVのようなものが必要でしたが、ランダム性も必要でした(したがって、ShuffleSplit)。 この試験を数回繰り返し、平均スコアと標準偏差をプロットしました。 (のサイズはk円の面積で示されることに注意してください。標準偏差はY軸にあります。) 一貫して、k(2から44に)増加すると、スコアが一時的に増加し、その後kさらに増加すると(〜10倍を超えて)、着実に減少します!どちらかと言えば、より多くのトレーニングデータがスコアのマイナーな増加につながることを期待します! 更新 絶対エラーを意味するようにスコアリング基準を変更すると、期待どおりの動作が得られます。スコアリングは、KフォールドCVのフォールド数を増やすと、0に近づくのではなく(デフォルトの ' r2 'のように)向上します。デフォルトのスコアリングメトリックの結果、フォールド数が増えると、平均メトリックとSTDメトリックの両方でパフォーマンスが低下するのはなぜですか。

1
ブートストラップはこの継続的なデータに適していますか?
私は完全な初心者です:) 人口約745,000人のサンプルサイズ10,000で調査を行っています。各サンプルは「類似性の割合」を表します。サンプルの大部分は約97%〜98%ですが、一部は60%〜90%です。つまり、分布は大きくマイナスに歪んでいます。結果の約0.6%は0%ですが、これらはサンプルとは別に処理されます。 すべての10,000個のサンプルの平均は97.7%であり、Excelだけでは、StdDevは3.20です。StdDevは実際には適用されないことを理解しています。これは、結果が正規分布されないためです(+3.20では100%を超えるため!)。 私の質問は: ブートストラップ(私にとっての新しいコンセプト)は適切ですか? 私は正しくブートストラップしていますか?:) 十分なサンプルサイズとは何ですか? 私がやっていることは、私の10,000件の結果を(置き換えて)再サンプリングし、新しい平均を計算することです。私はこれを数千回行い、それぞれの平均を配列に格納します。次に、「平均の平均」を計算します。これが私の統計結果です。99%CIを計算するために、0.5%番目の値と99.5%番目の値を選択すると、非常に狭い範囲(97.4%-98.0%)が生成されます。これは有効な結果ですか、それとも何か問題がありますか? サンプルサイズについては、人口の約1.3%しかサンプリングしていません。これで「十分」かどうかはわかりません。私のサンプルが母集団の代表であるかどうかはどのようにしてわかりますか?理想的には、+ /-0.50%パーセンテージポイント(つまり、97.2%-98.2%)である平均の99%の信頼度を確保したいと考えています。 ヒントを事前にありがとう!

4
研究が過剰に行われるとはどういう意味ですか?
研究が過剰に行われるとはどういう意味ですか? 私の印象では、サンプルサイズが非常に大きく、ごくわずかな効果サイズを検出できるということです。これらの効果サイズはおそらく非常に小さいため、変数間の(必ずしも直接ではない)因果関係よりも、サンプリングプロセスのわずかなバイアスから生じる可能性が高くなります。 これは正しい直感ですか?もしそうなら、結果がそのように解釈され、見積もられた効果サイズが「意味のある」ほど十分に大きいかどうかを手動でチェックして確認する限り、私は大したことが何であるかわかりません。 何か不足していますか?このシナリオで何をすべきかについてより良い推奨事項はありますか?

1
一連の広告のうち、クリック率が最も高いものを特定するために必要なサンプルサイズ
私は貿易のソフトウェアデザイナーであり、クライアントのプロジェクトに取り組んでいます。私の分析が統計的に正しいことを確認したいと思います。 次のことを考えてみましょう: 私たちは持っているのn広告(N <10)、そして私たちは、単に最高を実行する広告を知りたいです。 広告サーバーはこれらの広告の1つをランダムに配信します。ユーザーが広告をクリックすると成功します-私たちのサーバーはそれを追跡します。 前提:信頼区間:95% 質問:推定サンプルサイズはどのくらいですか?(配信する必要がある広告の合計数)、なぜですか?(私はダミーです) ありがとう

4
単変量ロジスティック回帰のサンプルサイズ計算
対象のコホートに手術時に測定された単一の連続変数があり、その後2年後に機能的転帰または障害転帰として分類される研究に必要なサンプルサイズをどのように計算しますか。 その測定が悪い結果を予測できたかどうかを確認したいと思います。ある時点で、連続変数のカットポイントを導出したい場合があります。これを超えると、結果が損なわれる可能性を減らすために介入しようとします。 何か案は?Rの実装。

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
SurveyMonkeyは、ランダムでないサンプルを取得するという事実を無視しますか?
SurveyMonkeyには、母集団のサイズに基づいて、特定の誤差範囲または信頼区間に必要なサンプルサイズを把握するための手順とチャートがあります。 SurveyMonkeyのサンプルサイズ このチャートは、ランダムなサンプルが得られないという事実を単に無視しているのでしょうか?調査に反応することに煩わされている人々しか得られないからです。 これを入力すると、質問が主観的であると警告されるので、正しく質問していない可能性があります。それは実際にはSurveyMonkeyについてではありませんが、より一般的な質問です-私が知らないいくつかの高度な手法を使用して、自発的応答データから信頼区間を実際に計算できますか? 出口調査や全国調査では、明らかにこの問題に対処しなければなりません。私の教育では調査サンプリング技術を詳細に取り上げていませんが、人口統計データを収集し、それを使用してサンプルの代表性を知ることを含むと思います。 しかし、それを除けば、簡単なオンライン調査では、回答に迷惑をかけている人々が人口のランダムなサンプルであると彼らは単に想定しているのでしょうか?

2
精度に基づく(つまり、逆分散)重み付けはメタ分析に不可欠ですか?
精度ベースの重み付けはメタ分析の中心ですか?ボレンシュタイン等。(2009)メタ分析を可能にするために必要なことはすべて以下のとおりです: 研究では、単一の数値として表現できる点推定を報告しています。 そのポイント推定に対して分散を計算できます。 (2)が厳密に必要な理由はすぐにはわかりません。しかし、実際、広く受け入れられているメタ分析の方法はすべて、精度に基づく(つまり、逆分散)重み付けスキームに依存しており、各研究の効果サイズの分散の推定が必要です。ヘッジの方法(Hedges&Olkin、1985; Hedges&Vevea、1998)とハンターとシュミットの方法(Hunter&Schmidt、2004)はどちらも基本的にサンプルサイズの重み付けを使用していますが、これらの方法は正規化された平均差にのみ適用されるため、他の場所の標準偏差。各研究の分散に反比例する重みが全体的な効果サイズ推定器の分散を最小化することは理にかなっているので、この重み付けスキームはすべての方法の必須の機能ですか? 各効果サイズの分散にアクセスせずに系統的レビューを実施し、その結果をメタ分析と呼ぶことは可能ですか?サンプルサイズは、分散が利用できない場合の精度のプロキシとしての可能性があるようです。たとえば、効果サイズが生の平均差として定義された研究でサンプルサイズの重み付けを使用できますか?結果の平均効果サイズの一貫性と効率にどのように影響しますか?

2
小さいサンプルサイズのデータ​​のトレーニング、交差検証、およびテストセットのサイズを選択するにはどうすればよいですか?
サンプルサイズが小さいと仮定します(例:N = 100、2つのクラス)。機械学習のトレーニング、相互検証、テストセットのサイズをどのように選択すればよいですか? 直感的に選ぶ トレーニングセットのサイズは50 相互検証セットサイズ25、および サイズを25としてテストします。 しかし、おそらくこれは多かれ少なかれ理にかなっています。これらの値を実際にどのように決定すればよいですか?別のオプションを試してみてもいいですか(あまり好ましくないと思いますが...過剰学習の可能性が高くなります)? 3つ以上のクラスがある場合はどうなりますか?

3
帰無仮説がある場合の二項データの検出力分析
対 2項データから単一サンプルの電力分析を実行したいと思います。ここで、は母集団内の成功の割合です。場合、項の正規近似または -testのいずれかを使用できますが、場合、どちらも失敗します。この分析を行う方法があるかどうか知りたいです。提案、コメント、または参考資料をいただければ幸いです。どうもありがとう!H 1:P = 0.001 、P 0 &lt; P &lt; 1 χ 2、P = 0H0:p=0H0:p=0H_0: p = 0H1:p=0.001H1:p=0.001H_1: p = 0.001ppp0&lt;p&lt;10&lt;p&lt;10 < p <1χ2χ2\chi^2p=0p=0p =0

1
Anova()とdrop1()がGLMMに異なる回答を提供したのはなぜですか?
次の形式のGLMMがあります。 lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 私が使用している場合drop1(model, test="Chi")、私は私が使用している場合とは異なる結果を得るAnova(model, type="III")車のパッケージからかsummary(model)。後者の2つは同じ答えを与えます。 大量の偽造データを使用して、これらの2つの方法は通常違いがないことがわかりました。それらは、平衡線形モデル、不平衡線形モデル(異なるグループでnが等しくない場合)、および平衡一般化線形モデルに対して同じ答えを示しますが、平衡一般化線形混合モデルに対しては同じ答えを与えません。したがって、ランダムな要素が含まれている場合にのみ、この不一致が現れます。 これらの2つの方法の間に違いがあるのはなぜですか? GLMMを使用する場合は必要がありますAnova()かdrop1()使用できますか? これらの2つの違いは、少なくとも私のデータでは、かなりわずかです。どちらを使用するかは問題ですか?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

2
母集団全体のデータが利用できる場合、信頼区間を計算し、仮説をテストすることは理にかなっていますか?
母集団全体のデータが利用できる場合、信頼区間を計算し、仮説をテストすることは理にかなっていますか?私の意見では、パラメーターの真の値を正確に計算できるため、答えは「いいえ」です。しかし、それでは、前述の手法を使用できるようにする元の母集団からのデータの最大比率はどのくらいですか?

1
標準エラー(SE)を使用しない代替ファンネルプロット
メタ分析を提出する前に、ファネルプロットを作成して、異質性とパブリケーションのバイアスをテストします。-1から+1までの値を取る、プールされた効果サイズと各研究からの効果サイズがあります。各研究の患者とコントロールのサンプルサイズn1、n2があります。標準誤差(SE)を計算できないため、エッガーの回帰を実行できません。縦軸にSEまたはprecision = 1 / SEを使用できません。 ご質問 横軸の効果サイズと縦軸の合計サンプルサイズn(n = n1 + n2)を使用してファンネルプロットを作成できますか? そのようなファンネルプロットはどのように解釈されるべきですか? いくつかの公開された論文は、縦軸に合計サンプルサイズを指定したこのようなファンネルプロットを示しました(公開されたPMID:10990474、10456970)。また、ウィキペディアのファンネルプロットwikiもこれに同意しています。しかし、最も重要なのは、BMJ 1999に関するMathhias Eggerの論文(PubMed PMID:9451274)がそのようなファンネルプロットを示しており、SEがなく、縦軸にサンプルサイズしかないことです。 さらに質問を 標準誤差が不明な場合、そのようなプロットは受け入れられますか? 垂直軸索にSEまたはpresicion = 1 / SEを設定した従来のファンネルプロットと同じですか? その解釈は異なりますか? 正三角形を作成するには、どのように線を設定すればよいですか?

2
変量効果モデルのクラスターあたりの最小サンプルサイズ
変量効果モデルのクラスターごとの観測数に合理性はありますか?交換可能なランダム効果としてモデル化された700個のクラスターのサンプルサイズが1,500です。少数ではあるが大きなクラスターを構築するために、クラスターをマージするオプションがあります。各クラスターの変量効果を予測する上で意味のある結果を得るために、クラスターごとの最小サンプルサイズをどのように選択できるのでしょうか。これを説明する良い紙はありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.