タグ付けされた質問 「t-test」

2つのサンプルの平均、または1つのサンプルの平均(またはパラメーター推定値)を指定された値と比較するためのテスト。発明者の仮名にちなんで「学生t検定」としても知られています。


4
2つのサンプルの平均が著しく異なるが、差が問題には小さすぎると思われる場合の対処方法
私は2つのサンプル(有するn≈70n≈70n \approx 70の両方のケースでは)。平均は、プールされた標準の約2倍異なります。開発者 結果のTTT値は約10です。平均が同じでないことを最終的に示したことを知るのは素晴らしいことですが、これは大きなnによって駆動されるように思われます。データのヒストグラムを見ると、小さなp値が実際にデータを代表しているとは感じませんし、正直に言って引用するのは気にしないでください。おそらく間違った質問をしているのでしょう。私が考えているのは:わかりました、平均は異なり​​ますが、分布が重要な重複を共有しているのでそれは本当に重要ですか? これはベイジアンテストが有用な場所ですか?もしそうなら、どこから始めるのが良い場所か、ちょっとしたグーグルは何も役に立たなかったが、私は正しい質問をしてはいけないかもしれない。これが間違っている場合、誰にも提案がありますか?または、これは定量分析ではなく単に議論のポイントですか?

1
距離の差の統計的有意性
2次元グリッド上に3000を超えるベクトルがあり、ほぼ均一な離散分布です。ベクトルのいくつかのペアは特定の条件を満たす。注:条件はベクトルのペアにのみ適用され、個々のベクトルには適用されません。約1500個のこのようなペアのリストがあります。これをグループ1と呼びましょう。グループ2には他のすべてのベクトルペアが含まれています。グループ1のペアのベクトル間の距離が、2つのベクトル間の平均距離よりも大幅に短いかどうかを確認したいと思います。どうやってやるの? 統計的検定:中心極限定理は私の事例に適用できますか?つまり、距離のサンプルを使用し、スチューデントのt検定を使用して、条件を満たすサンプルの平均と条件を満たさないサンプルの平均を比較できますか?それ以外の場合、ここではどのような統計的検定が適切でしょうか? サンプルサイズとサンプル数:ここには2つの変数があることがわかります。2つのグループのそれぞれに対して、サイズmのn個のサンプルを取得し、各サンプルの平均を取得する必要があります。nとmを選択する原則的な方法はありますか?それらは可能な限り大きくすべきですか?または、統計的有意性を示す限り、できるだけ小さくする必要がありますか?2つのグループのそれぞれで同じにする必要がありますか?または、より多くのベクトルペアを含むグループ2の方が大きくする必要がありますか?

1
t検定の「ほぼ正常」の評価
Welchのt検定を使用して平均の等価性をテストしています。基礎となる分布は、通常とはほど遠いです(関連する議論の例よりも歪んでいます)。より多くのデータを取得できますが、その範囲を決定する原則的な方法が必要です。 サンプルの分布が許容可能であるという評価を行うための優れたヒューリスティックはありますか?正規性からの逸脱が最も懸念されるのはどれですか? サンプル統計のブートストラップ信頼区間に依存する他のアプローチがありますか?

1
t.testは「データは本質的に一定です」というエラーを返します
R version 3.1.1 (2014-07-10) -- "Sock it to Me" > bl <- c(140, 138, 150, 148, 135) > fu <- c(138, 136, 148, 146, 133) > t.test(fu, bl, alternative = "two.sided", paired = TRUE) Error in t.test.default(fu, bl, alternative = "two.sided", paired = TRUE) : data are essentially constant 次に、fuデータセット内の単一の文字を変更します。 …
12 r  t-test 

5
非常に多数のデータポイントで値の代入を実行する方法は?
非常に大きなデータセットがあり、約5%のランダムな値が欠落しています。これらの変数は互いに相関しています。次のRデータセットの例は、ダミーの相関データを使用した単なるおもちゃの例です。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
ブートストラップテストを実行して2つのサンプルの平均を比較する方法
2つの大きく歪んだサンプルがあり、t統計を使用して平均を比較するためにブートストラップを使用しようとしています。 それを行う正しい手順は何ですか? 私が使用しているプロセス これが正規分布ではないことがわかっている場合、最終ステップで元のデータまたは観測されたデータの標準誤差を使用することの妥当性を心配しています。 私の手順は次のとおりです。 ブートストラップ-交換でランダムにサンプリング(N = 1000) 各ブートストラップのt統計を計算してt分布を作成します: T(b )= (X¯¯¯¯b 1− X¯¯¯¯b 2)− (X¯¯¯¯1− X¯¯¯¯2)σ2x b 1/ n+ σ2x b 2/ n−−−−−−−−−−−−−√T(b)=(バツ¯b1−バツ¯b2)−(バツ¯1−バツ¯2)σバツb12/n+σバツb22/n T(b) = \frac{(\overline{X}_{b1}-\overline{X}_{b2})-(\overline{X}_1-\overline{X}_2) }{\sqrt{ \sigma^2_{xb1}/n + \sigma^2_{xb2}/n }} t 分布のおよびパーセンタイルを取得してt信頼区間を推定するα / 2α/2\alpha/21 - α / 21−α/21-\alpha/2 信頼区間を取得するには: C私L= (X¯¯¯¯1− X¯¯¯¯2)− T_ C私L。SEO R I GI N …

1
RのPROC Mixedとlme / lmerの違い-自由度
注:法的な理由で以前の質問を削除する必要があったため、この質問は再投稿です。 SASのPROC MIXED をR lmeのnlmeパッケージの関数と比較していると、やや紛らわしい違いを見つけました。より具体的には、異なるテストの自由度はとの間PROC MIXEDで異なり、lmeなぜだろうと思いました。 次のデータセットから開始します(以下のRコード)。 ind:測定が行われる個人を示す因子 fac:測定が行われる臓器 trt:治療を示す因子 y:連続応答変数 アイデアは、次の単純なモデルを構築することです: y ~ trt + (ind):indランダムな要因として y ~ trt + (fac(ind)):facにネストされたindランダムな要因として、 最後のモデルでは特異性が生じることに注意してください。とのyすべての組み合わせに対しての値は1つだけです。indfac 最初のモデル SASでは、次のモデルを作成します。 PROC MIXED data=Data; CLASS ind fac trt; MODEL y = trt /s; RANDOM ind /s; run; チュートリアルによると、使用しているRの同じモデルnlmeは次のようになります。 > require(nlme) > options(contrasts=c(factor="contr.SAS",ordered="contr.poly")) > m2<-lme(y~trt,random=~1|ind,data=Data) 両方のモデルは、係数とそのSEに対して同じ推定値を与えますがtrt、の効果に対してF検定を実行する場合、異なる自由度を使用します。 SAS …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
対応のないt検定にはどのような正規性の仮定が必要ですか?そして、いつ彼らは会いますか?
対応のあるt検定を実施したい場合、要件は(正確に理解していれば)一致した測定単位間の平均差が正常に分布することです。 対応のあるt検定では、一致した測定単位間の差が正常に分布するという要求で明確にされます(2つの比較されたグループのそれぞれの分布が正常でない場合でも)。 ただし、対応のないt検定では、一致した単位の違いについて話すことはできません。そのため、2つのグループの観測値が正常であり、平均の差が正常になるようにする必要があります。それは私の質問に私を導きます: 2つの非正規分布が可能であるため、それらの平均の差が正規分布になりますか?(したがって、私が理解する限り、それらに対してペアのないt検定を実行するために必要な要件を満たしてください) 更新:(答えてくれてありがとう)私たちが探している一般的なルールは、平均の差は実際に正常であるということです。これは私にとって驚くべきことです(驚くことではなく、ただ驚くべきことです)、これがペアになっていないt検定でどのように機能するかについてですが、単一サンプルのt検定ではうまくいきません。以下に、いくつかのRコードを示します。 n1 <- 10 n2 <- 10 mean1 <- 50 mean2 <- 50 R <- 10000 # diffs <- replicate(R, mean(rexp(n1, 1/mean1)) - mean(runif(n2, 0, 2*mean2))) # hist(diffs) P <- numeric(R) MEAN <- numeric(R) for(i in seq_len(R)) { y1 <- rexp(n1, 1/mean1) y2 <- runif(n2, 0, …

2
線形回帰におけるt検定とANOVAの違い
線形回帰のt検定とANOVAの違いは何ですか? 傾斜と切片のいずれか1つが平均ゼロであるかどうかをテストするt検定ですが、ANOVAはすべての傾斜が平均ゼロであるかどうかをテストしますか?これが唯一の違いですか? 予測変数が1つしかない単純な線形回帰では、推定する勾配は1つだけです。t検定とANOVAは同等です。もしそうなら、異なる統計を使用している場合(t検定はt統計を使用し、ANOVAはF統計を使用している場合)

1
加重データを使用した2サンプルのT検定
2サンプルのT検定を実行して、各サンプルがT検定の仮定に従う2つの独立したサンプル間の差をテストします(各分布は独立しており、等しい分散で正規分布として同一に分布すると仮定できます) 。基本的な2標本T検定の唯一の問題は、データが重み付けされることです。加重平均と標準偏差を使用していますが、加重Nは人為的にサンプルのサイズを膨らませるため、結果にバイアスをかけます。加重Nを非加重Nに置き換えるだけの場合ですか?
12 t-test 

1
検定vs検定?
私は検定と検定の違いを正確に理解しようとしています。tttzzz 私の知る限りでは、両方のクラスのテストに対して、同じテスト統計を使用します。 b^−Cseˆ(b^)b^−Cse^(b^)\frac{\hat{b} - C}{\widehat{\operatorname{se}}(\hat{b})} ここで、はサンプル統計、は参照(位置)定数(テストの詳細に依存)、およびは標準ですエラー。b^b^\hat{b}CCCseˆ(b^)se^(b^)\widehat{\operatorname{se}}(\hat{b})b^b^\hat{b} 次に、これら2つのクラスのテストの唯一の違いは、検定の場合、上記の検定統計量は分布に従う(一部のサンプルで決定された自由度の場合)のに対し、検定。同じ検定統計量は標準正規分布従います。(これは、またはの選択が、サンプルが十分に大きいかどうかによって左右されることを示唆しています。)ttttttdddzzzN(0,1)N(0,1)\mathcal{N}(0, 1)zzzttt これは正しいです?

1
サンプルが正規分布しているが、それらの違いが分布していない場合、対応のあるt検定を使用できますか?
同一の初期条件で2つの異なる処理を適用した実験のデータがあり、いずれの場合も結果として0〜500の整数を生成します。対応のあるt検定を使用して、2つの処理によってもたらされる効果が有意に異なるかどうかを判断したいと思います。各処理グループの結果は正規分布ですが、各ペア間の差は正規分布していません(非対称+ 1つの長い尾)。 この場合、対応のあるt検定を使用できますか、それとも正規性の仮定に違反していますか?つまり、ある種のノンパラメトリック検定を使用する必要がありますか?

2
サンプルサイズが増加すると、信頼区間はどの設定で改善されませんか?
でブログの記事、私はその主張を発見しました 「私はWGコクランが最初の指摘(およそ1970年代)を信じて、観測設定の信頼区間では、サンプルサイズが小さいと、カバレッジがゼロに近く、十分に大きいサンプルでカバレッジが良くなると思います。」 ここで、サンプルサイズが大きくなるとCI幅が0に近づくと想定しますが、カバレッジが同時に悪化するという考えは私には納得できません。これは本当ですか、そしてどのような状況下ですか?それとも私はそれを誤解していますか? 私は、10000から1000000のサンプルサイズ(1サンプルのt検定、95%CI)のランダムな正規分布データを使用してシミュレーションを実行しました。サンプルサイズごとに1000回実行し、高いサンプルサイズではカバレッジは悪化しませんでした。 (代わりに、予想されるほぼ一定の約5%のエラー率が見つかりました)。

1
ウェルチ検定の自由度は常にプールされた検定のDFよりも小さいですか?
私は基礎統計学のコースを教えており、私たちは、分散が等しくない2つの独立したサンプルのt検定(ウェルチ検定)を行っています。私が見た例では、ウェルチテストで使用される調整された自由度は常にです。 ん1+ n2− 2ん1+ん2−2n_1+n_2-2 これは常にそうですか?ウェルチ検定は、プールされた(等分散)t検定の自由度を常に低減(または変更せずに)しますか? 同じ主題で、サンプルの標準偏差が等しい場合、ウェルチ検定のDFは減少しますか?数式を見ましたが、代数が乱雑になりました。ん1+ n2− 2ん1+ん2−2n_1+n_2-2

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.