タグ付けされた質問 「wilcoxon-signed-rank」

ウィルコクソン符号順位検定は、一方の値が他方の値より大きいかどうかに関係なく、2つの対応のある標本を比較するノンパラメトリックランク検定です。1つのサンプルを固定値と比較するためにも使用できます。[`sign-test`と混同しないでください]。

5
機械学習で階層/ネストされたデータを処理する方法
例で問題を説明します。いくつかの属性(年齢、性別、国、地域、都市)を与えられた個人の収入を予測するとします。あなたはそのようなトレーニングデータセットを持っています train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

2
ウィルコクソンの順位和検定とウィルコクソンの符号付き順位検定の違い
Wilcoxon Rank-Sum Testと、ペアの観測値を使用したWilcoxon Signed-Rank Testの理論的な違いは何かと思っていました。Wilcoxon Rank-Sum Testは2つの異なるサンプルで異なる量の観測値を許可するのに対し、ペアのサンプルのSigned-Rankテストはそれを許可しませんが、どちらも同じようにテストするようです。Wilcoxon Rank-Sum Testを使用する必要がある場合と、ペアの観測値を使用してWilcoxon Signed-Rank Testを使用する必要がある場合、誰かがさらに背景/理論的な情報を提供できますか?

1
2つのサンプルが同じ分布から抽出された場合のノンパラメトリック検定
サンプルまたは母集団の分布についての仮定を一切行うことなく、同じ母集団から2つのサンプルが抽出されるという仮説をテストしたいと思います。どうすればいいですか? ウィキペディアからの私の印象は、Mann Whitney Uテストが適切であるべきだということですが、実際には私にはうまくいかないようです。 具体的には、2つのサンプル(a、b)が大きく(n = 10000)、非正常(バイモーダル)の2つの母集団から抽出されたデータセットを作成しました。私はこれらのサンプルが同じ母集団からのものではないことを認識するテストを探しています。 ヒストグラムビュー: Rコード: a <- tibble(group = "a", n = c(rnorm(1e4, mean=50, sd=10), rnorm(1e4, mean=100, sd=10))) b <- tibble(group = "b", n = c(rnorm(1e4, mean=50, sd=3), rnorm(1e4, mean=100, sd=3))) ggplot(rbind(a,b), aes(x=n, fill=group)) + geom_histogram(position='dodge', bins=100) サンプルが同じ母集団からのものであるという帰無仮説を却下しなかったマン・ホイットニー検定は驚くほど(?)です。 > wilcox.test(n ~ group, rbind(a,b)) Wilcoxon rank sum …

2
ウィルコクソンの符号付きランク検定の効果サイズ?
一部の著者(たとえば、Pallant、2007、p。225;以下の画像を参照)は、検定統計量を観測数の平方根で除算することにより、ウィルコクソンの符号付きランク検定の効果サイズを計算することを提案しています。 r=Znx+ny√r=Znx+nyr = \frac{Z}{\sqrt{n_x + n_y}} Zは、SPSS(以下の画像を参照)およびwilcoxsign_testR によるテスト統計出力です(関連する質問:wilcoxsign_testのteststatistic vs linearstatisticも参照)。 他には、ブラベ・ピアソン()またはスピアマン(rS)相関係数(データ型に依存)。r=cov(XY)sd(X)×sd(Y)r=cov(XY)sd(X)×sd(Y)r = \frac{cov(XY)}{sd(X) \times sd(Y)}rSrSr_S それらを計算すると、2つrのsは、リモートでも同じではありません。たとえば、現在のデータの場合: r = 0.23()r=Znx+ny√r=Znx+nyr = \frac{Z}{\sqrt{n_x + n_y}} r = 0.43(ピアソン) これらは、まったく異なるエフェクトサイズを意味します。 では、どちらを使用するのが正しいエフェクトサイズであり、2つrのs はどのように相互に関連していますか? Pallant、J.(2007)の224ページ(下部)および225ページ。SPSSサバイバルマニュアル:

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

4
オンラインポーカーサイトが公正かどうかを調べる方法
先週、私の良き友人と興味深い議論をしました。彼はオンラインポーカーをプレイしていて、新しいサブスクリプション/追加の送金とあなたが配られるカードの間には関係があると示唆していました。これが本当なら、サイトはおそらく多くのリスクを冒すでしょうが、それでも問題は私を魅了します。 これに対する最初のアプローチは、友人に「良いカード」を定義して簡単な 二項検定。私の友人は、本当に良いカードが何であるかを定義するのに苦労しました。彼が本当に悪いカードを獲得した場合、彼はフォールドすることを知っていますが、彼が良いカードを獲得した場合、彼はオールインすることを知っています-悪いカードはその間にあります。 私の他のアプローチは、与えられた各ハンドの正確な確率を計算し、それが異なる分布形状と真のシフトを検出するはずなので、おそらくウィルコクソンの符号付きランク検定を使用して、予想と異なるかどうかを確認することです。難しいのは、正確な確率を計算することだと思います。 データは、最初の0〜100枚の配られたカードと1週間後の300〜400枚の配られたカード(またはしばらくサイトにいた友人)で構成されます。 質問:この問題にどのようにアプローチしますか? テキサスホールデムの仕組み 私はエキスパートゲーマーではありません(テキサスホールデムを3〜4回しかプレイしていません)が、かなり簡単です。詳細については、ウィキペディアのページをご覧ください。 通常のポーカーとの主な違いは、開始時に2枚のカードしか受け取れないことです。これらのカードを切り替えることはできません。テーブルには、もう5枚のカードが裏向きにあります。2つとテーブル5を組み合わせることで、最高の5カードポーカーハンドを選択します。 たとえば、2つのエースを獲得した場合、良いスタートを切り、おそらく強力になります。7と2を持っている場合、勝つチャンスは非常に少なく、すぐにフォールドします。難しい部分はおそらくクイーンと9で、カードは「平均」を上回っていても何もなしで終わる可能性があります。ここでポーカーのハンドのリストを見つけることができます。

2
が小さい
4つの異なる時点(治療前、治療終了日、治療終了後4週間、治療終了後2〜4か月)での鉄レベルに対する治療の効果を調べる研究のために分析するデータが与えられました。制御グループはありません。彼らは、治療前(ベースライン)レベルまでの3つの治療後の時点のそれぞれで鉄レベルの有意な増加があるかどうかを探しています。11人の患者はベースラインレベルを持ちましたが、4つの時点すべてについて完全なデータを持っていた患者は8人だけでした(各時点でnnn = 11、10、9、および8)。鉄のレベルが測定されただけでなく、ベースラインと比較するために、各時点で2つの実験室測定が行われました。 これを分析する方法についていくつか質問があります。このデータを分析するにはRM ANOVAが適切だと最初に思いましたが、サンプルサイズが小さいこと、データの損失、データの非正規分布が心配でした。次に、ウィルコクソンの符号付きランク検定を使用して、各治療後の測定値をベースラインと比較することを検討しましたが、その後、多重比較の問題に遭遇しました。ただし、複数の比較を実行する必要があると軽視している文献をいくつか読みました。全体として、私は小さなサンプルサイズ、不完全なデータ、多重比較(および必要かどうか)を扱っています。 これがすべて理にかなっていることを望みます。私はCrossValidatedを初めて使用し、経験豊富な統計学者から学ぶための場所として同僚から指示されたので、アドバイスをいただければ幸いです。ありがとう! コメントから生データを追加するように編集: 合計4つの時点があり、結果変数は連続的です。たとえば、各時点での結果は次のようになります。 Baseline (n=11): [2, 7, 7, 3, 6, 3, 2, 4, 4, 3, 14] 1st Post (n=10): [167, 200, 45, 132, ., 245, 199, 177, 134, 298, 111] 2nd Post (n=9): [75, 43, 23, 98, 87, ., 300, ., 118, 202, 156] 3rd …

1
キャレットglmnetとcv.glmnet
glmnetwithin caretを使用して最適なラムダを検索cv.glmnetし、同じタスクを実行するために使用することの比較には、多くの混乱があるようです。 次のような多くの質問が提起されました。 分類モデルtrain.glmnet対cv.glmnet? キャレットでglmnetを使用する適切な方法は何ですか? 「キャレット」を使用して「glmnet」を相互検証する しかし、答えはありません。これは、質問の再現性による可能性があります。最初の質問に続いて、非常に似た例を挙げますが、同じ質問があります:推定されるラムダはなぜそんなに違うのですか? library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to directly perform CV set.seed(849) cvob1=cv.glmnet(x=as.matrix(trainX),y=trainY,family="binomial",alpha=1, type.measure="auc", nfolds = 3,lambda = seq(0.001,0.1,by = …

3
Wilcoxonテストの漸近的な相対的効率が、正規分布データのスチューデントのt検定と比較されるのはなぜですか?
Wilcoxonの符号付きランク検定の漸近相対効率(ARE)は、データが正規分布の母集団から引き出される場合、スチューデントのt検定と比較してことはよく知られています。これは、基本的な1サンプルテストと2つの独立したサンプルのバリアント(Wilcoxon-Mann-Whitney U)の両方に当てはまります。また、通常のデータのANOVA Fテストと比較したクラスカルワリステストのAREです。3π≈0.9553π≈0.955\frac{3}{\pi} \approx 0.955 この驚くべき(私にとっては、「最も予期しない外観のππ\pi 1つ」)と驚くほど単純な結果は、洞察力に富んだ、驚くべき、または単純な証拠を持っていますか?

1
Rのウィルコクソン順位和検定
2つの独立したサンプルに同じテストを適用した結果があります。 x <- c(17, 12, 13, 16, 9, 19, 21, 12, 18, 17) y <- c(10, 6, 15, 9, 8, 11, 8, 16, 13, 7, 5, 14) そして、ウィルコクソンのランクサムテストを計算します。 手作業で統計を計算すると、次のようになります: T W = ∑ rank (X i)= 156.5TWTWT_{W}TW= ∑ ランク(X私)= 156.5TW=∑ランク(バツ私)=156.5 T_{W}=\sum\text{rank}(X_{i}) = 156.5 Rにaを実行させるとwilcox.test(x, y, correct = F)、次のようになります。 W = …


1
Wilcoxonの符号付き順位検定は、t検定または符号検定のどちらよりも望ましい状況ですか?
いくつかの議論(下記)の後、焦点の合った質問のより明確な画像が得られたので、ここに改訂された質問がありますが、コメントの一部は元の質問と関係がないように見えるかもしれません。 と思われるt検定は、対称分布のために迅速に収束することを、符号付き順位検定は、対称性を仮定し、そしてそれは、対称的な分布のために、手段/ pseudomedians /中央値の間に違いはありません。もしそうなら、どのような状況下で、比較的経験の浅い統計学者は、t検定と符号検定の両方を利用できるときに、符号付き順位検定が役立つと思いますか?私の(例えば社会科学)生徒の1人が、ある治療が別の治療よりも優れているかどうかをテストしようとしている場合(比較的簡単に解釈される測定、たとえば、「平均」差の概念によって)、署名する場所を見つけるのに苦労しています-私の大学では、一般的に教えられているように見えますが、ランクテストは無視されています。

2
ウィルコクソン符号順位検定に順序データまたは区間データは必要ですか?
複数のオンラインソースを見て、正直な答えが得られないようです。序数データが​​WSRTに使用するのに十分であるかどうかを誰かが私に明確にしてもらえますか?そうでない場合、サインテストは適切な代替ですか?最後に、これは大学での論文プロジェクトのためのものであり、参考文献や文学を回答に含めることができれば、どちらの方法でもテストの選択を正当化する必要があり、これまでのところWebサイト(私は参照できません!)

1
Anova()とdrop1()がGLMMに異なる回答を提供したのはなぜですか?
次の形式のGLMMがあります。 lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 私が使用している場合drop1(model, test="Chi")、私は私が使用している場合とは異なる結果を得るAnova(model, type="III")車のパッケージからかsummary(model)。後者の2つは同じ答えを与えます。 大量の偽造データを使用して、これらの2つの方法は通常違いがないことがわかりました。それらは、平衡線形モデル、不平衡線形モデル(異なるグループでnが等しくない場合)、および平衡一般化線形モデルに対して同じ答えを示しますが、平衡一般化線形混合モデルに対しては同じ答えを与えません。したがって、ランダムな要素が含まれている場合にのみ、この不一致が現れます。 これらの2つの方法の間に違いがあるのはなぜですか? GLMMを使用する場合は必要がありますAnova()かdrop1()使用できますか? これらの2つの違いは、少なくとも私のデータでは、かなりわずかです。どちらを使用するかは問題ですか?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.