タグ付けされた質問 「p-value」

頻度主義仮説検定では、 p-valueは、帰無仮説が真であるという仮定の下で、観測された結果よりも極端な(またはそれ以上の)結果の確率です。

2
p値に基づいて特徴を選択するのは間違っていますか?
機能の選択方法に関する投稿がいくつかあります。メソッドの1つは、t統計に基づく機能の重要性を説明します。標準化された特徴をvarImp(model)持つ線形モデルに適用されるRでは、各モデルパラメーターのt統計量の絶対値が使用されます。したがって、基本的には、t統計に基づいて特徴を選択します。つまり、係数の精度を意味します。しかし、私の係数の正確さは、特徴の予測能力について何かを教えてくれますか? 私の機能は低いt統計量を持っていますが、それでもモデルの精度を向上させることができますか?「はい」の場合、t統計に基づいて変数をいつ除外したいでしょうか?それとも、重要でない変数の予測能力をチェックするための出発点にすぎませんか?

1
GBMパッケージとGBMを使用したキャレット
私はを使用してモデルのチューニングを行ってきましたがcaret、gbmパッケージを使用してモデルを再実行しています。caretパッケージが使用gbmし、出力が同じである必要があることは私の理解です。ただし、を使用した簡単なテスト実行でdata(iris)は、評価指標としてRMSEとR ^ 2を使用したモデルで約5%の不一致が示されています。を使用して最適なモデルのパフォーマンスを見つけたいが、部分的な依存関係プロットを利用するためにcaret再実行しgbmます。再現性のために以下のコード。 私の質問は次のとおりです。 1)これらの2つのパッケージは同じであっても違いがあるのはなぜですか(確率的ですが、5%がやや大きな違いであることがわかります。特に、次のような素晴らしいデータセットを使用していない場合 iris、モデリングの) 。 2)両方のパッケージを使用する利点または欠点はありますか? 3)無関係:irisデータセットを使用した場合、最適な値interaction.depthは5ですが、読み取り値が最大値floor(sqrt(ncol(iris)))である2 を超えるはずです。これは厳密な経験則ですか、それとも非常に柔軟ですか。 library(caret) library(gbm) library(hydroGOF) library(Metrics) data(iris) # Using caret caretGrid <- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50, shrinkage=c(0.01, 0.001), n.minobsinnode=10) metric <- "RMSE" trainControl <- trainControl(method="cv", number=10) set.seed(99) gbm.caret <- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm", trControl=trainControl, verbose=FALSE, tuneGrid=caretGrid, metric=metric, bag.fraction=0.75) …

5
非常に多数のデータポイントで値の代入を実行する方法は?
非常に大きなデータセットがあり、約5%のランダムな値が欠落しています。これらの変数は互いに相関しています。次のRデータセットの例は、ダミーの相関データを使用した単なるおもちゃの例です。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 


1
検定統計量の分布がバイモーダルの場合、p値は何か意味がありますか?
P値は、帰無仮説が真であると仮定して、少なくとも観察されるものと同じくらい極端な検定統計量を取得する確率として定義されます。言い換えると、 しかし、どのような検定統計量は分布の二峰性である場合には?p値はこの文脈で何かを意味しますか?たとえば、Rでいくつかのバイモーダルデータをシミュレートします。P(X≥t|H0)P(X≥t|H0)P( X \ge t | H_0 ) set.seed(0) # Generate bi-modal distribution bimodal <- c(rnorm(n=100,mean=25,sd=3),rnorm(n=100,mean=100,sd=5)) hist(bimodal, breaks=100) そして、60の検定統計値を観察すると仮定しましょう。そして、ここで、この値が非常にありそうもないことを写真から知っています。理想的には、これを明らかにするために使用する統計手順(たとえば、p値)が必要です。しかし、定義どおりにp値を計算すると、かなり高いp値が得られます observed <- 60 # Get P-value sum(bimodal[bimodal >= 60])/sum(bimodal) [1] 0.7991993 分布を知らなかった場合、私が観察したのは単に偶然によるものであると結論付けます。しかし、これは真実ではないことがわかっています。 私が持っている疑問は、p値を計算するときに、観測された値と少なくとも同じくらいの値の確率を計算するのはなぜでしょうか?そして、上記でシミュレートしたような状況に遭遇した場合、代替ソリューションは何ですか?

2
多重代入データセット間でブートストラップされたp値をプールするにはどうすればよいですか?
乗算代入(MI)データからを推定するためにp値をブートストラップしたいのですが、MIセット全体でp値を結合する方法が不明確であるという問題に関心があります。θθ\theta MIデータセットの場合、推定値の合計分散を取得する標準的なアプローチでは、Rubinのルールを使用します。MIデータセットのプーリングのレビューについては、こちらをご覧ください。合計分散の平方根は、標準誤差推定として機能します。ただし、推定量によっては、総分散に既知の閉形式がないか、サンプリング分布が正規ではありません。統計量θ / s e (θ )は、漸近的ではなく、t分布しない場合があります。θθ\thetaθ / s e (θ )θ/se(θ){\theta}/{se(\theta)} したがって、完全なデータの場合、1つの代替オプションは、統計をブートストラップして分散、p値、および信頼区間を見つけることです。たとえ、サムリング分布が正規でなく、その閉形式が不明であってもです。MIの場合、2つのオプションがあります。 MIデータセット全体でブートストラップされた分散をプールする MIデータセット全体でp値または信頼限界をプールする θθ\theta だから私の質問は次のとおりです。複数の代入データセットにまたがって複数のブートストラップされたp値(または信頼区間)をプールする方法は? 進め方についての提案を歓迎します、ありがとうございます。

4
RでROCの下の面積のp値を計算する方法
私は、受信者オペレーター特性(ROC)の下の領域のp値を計算する方法を見つけるのに苦労しています。連続変数と診断テスト結果があります。AUROCが統計的に有意であるかどうかを見たいです。 ROC曲線を扱う多くのパッケージを見つけました:pROC、ROCR、caTools、検証、Epi。しかし、ドキュメントを読んでテストするのに何時間も費やした後でも、私はその方法を見つけることができませんでした。見逃したばかりだと思う。
12 r  p-value  roc 

1
lmerとp値に関する混乱:memiscパッケージのp値はMCMCのものとどのように比較されますか?
パッケージlmer()内の関数はlme4p値を生成しなかったという印象を受けました(lmerp値とその他すべてを参照)。 代わりに、MCMCが生成したp値を使用して、この質問:混合モデルでの重要な効果lme4とこの質問:のパッケージの出力にp値が見つかりませんlmer()lm4R。 最近、私はmemiscと呼ばれるパッケージを試してgetSummary.mer()、モデルの固定効果をcsvファイルに入れました。まるで魔法のようにp、MCMCのp値と​​非常に密接に一致する列が表示されます(また、を使用した場合の処理​​時間はかかりませんpvals.fnc())。 私は暫定的にコードを見てgetSummary.mer、p値を生成する行を見つけました: p <- (1 - pnorm(abs(smry@coefs[, 3]))) * 2 これは、p値をlmer実行するのではなく、出力から直接生成できることを意味しpvals.fncますか?これが疑いなく「p-値フェティシズム」の議論を開始することを理解していますが、知りたいと思っています。memiscそれに関しては以前言及されたことを聞いたことがありませんlmer。 もっと簡潔に:生成された値よりもMCMC p値を使用する利点(ある場合)はgetSummary.mer()何ですか?

2
ピアソンの相関検定のp値は、相関係数とサンプルサイズだけで計算できますか?
背景:著者は、著者がサンプルサイズ878からピアソン相関0.754を報告している1つの記事を読みました。相関テストの結果のp値は、「2つ星」有意です(つまり、p <0.01)。ただし、このような大きなサンプルサイズでは、対応するp値は0.001(3つ星が有意)未満である必要があると思います。 このテストのp値は、ピアソン相関係数とサンプルサイズだけから計算できますか? はいの場合、これをRでどのように行うことができますか?

2
適応シーケンシャル分析のp値の調整(カイ2乗検定の場合)?
私は、どの統計文献が次の問題に関連しているか、そしておそらくそれをどのように解決するかのアイデアを知りたいと思っています。 次の問題を想像してください。 一部の疾患には4つの治療法があります。どちらの治療がより良いかを確認するために、特別な試験を実施します。トライアルでは、被験者がいないことから始め、その後、1つずつ、より多くの被験者がトライアルに入力されます。各患者は、4つの可能な治療法のいずれかにランダムに割り当てられます。治療の最終結果は「健康」または「病気」であり、この結果をすぐに知ることができるとしましょう。つまり、任意の時点で、2 x 4の分割表を作成して、被験者の数がどの治療/最終結果に該当したかを示すことができます。 4つの可能な治療法の間に統計的に異なる治療法があるかどうかを確認するために、いつでも分割表を確認できます(たとえば、カイ2乗検定を使用)。それらのいずれかが他のすべてよりも優れている場合-トライアルを停止し、「勝者」として選択します。いくつかの試験が他の3つすべてよりも悪いことが示された場合、私たちは彼を試験から除外し、将来の患者への投与を停止します。 ただし、ここでの問題は、特定のポイントでテストを実行できること、テスト間に相関関係があること、プロセスの適応性がプロセスを操作することのためにp値をどのように調整するかですたとえば、何らかの治療が「悪い」と判明した場合)?

2
正および負の予測値の統計的検定
私は論文を読んでいて、PPV(正の予測値)とNPV(負の予測値)を比較した表を見ました。彼らは彼らのためにある種の統計的検定を行いました。これはテーブルのスケッチです: PPV NPV p-value 65.9 100 < 0.00001 ... すべての行は特定の分割表を参照します。 彼らはどのような仮説検定をしましたか?ありがとう!

1
Rのlmとbiglmが同じデータに対して異なるp値を与えるのはなぜですか?
ここに小さな例があります: MyDf<-data.frame(x=c(1,2,3,4), y=c(1.2, .7, -.5, -3)) 今とbase::lm: > lm(y~x, data=MyDf) %>% summary Call: lm(formula = y ~ x, data = MyDf) Residuals: 1 2 3 4 -0.47 0.41 0.59 -0.53 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 3.0500 0.8738 3.491 0.0732 . x -1.3800 0.3191 -4.325 0.0495 * --- …

1
フィッシャーの正確確率検定は不均一なp値を与える
シミュレートされた遺伝学の問題にフィッシャーの正確確率検定を適用しようとしていますが、p値が右に歪んでいるようです。生物学者である私は、すべての統計学者にとって明らかなものを見逃しているだけだと思います。 私のセットアップはこれです:(セットアップ1、限界は固定されていません) 0と1の2つのサンプルがRでランダムに生成されます。各サンプルn = 500、サンプリング0と1の確率は等しいです。次に、各サンプルの0/1の割合をフィッシャーの正確確率検定と比較します(ちょうどfisher.test;他のソフトウェアでも同様の結果を試しました)。サンプリングとテストは30 000回繰り返されます。結果のp値は次のように分布します。 すべてのp値の平均は約0.55、0.0577の5パーセンタイルです。右側の分布も不連続に見えます。 私はできる限りすべてを読んでいますが、この動作が正常であるという兆候は見つかりません-一方、これは単なるシミュレーションデータであるため、バイアスの原因がわかりません。見逃した調整はありますか?サンプルサイズが小さすぎる?それとも、均一に分布されているとは限らず、p値の解釈が異なるのでしょうか。 または、これを100万回繰り返し、0.05分位点を見つけて、これを実際のデータに適用するときの有意差カットオフとして使用する必要がありますか? ありがとう! 更新: マイケルMは0と1の限界値を修正することを提案しました。p値はより良い分布を与えます-残念ながら、それは均一ではなく、私が認識している他の形状でもありません。 実際のRコードを追加する:(設定2、辺縁を修正) samples=c(rep(1,500),rep(2,500)) alleles=c(rep(0,500),rep(1,500)) p=NULL for(i in 1:30000){ alleles=sample(alleles) p[i]=fisher.test(samples,alleles)$p.value } hist(p,breaks=50,col="grey",xlab="p-values",main="") 最終編集: whuberがコメントで指摘しているように、ビニングのために領域が歪んで見えるだけです。セットアップ1(自由限界)とセットアップ2(固定限界)のQQプロットを添付しています。以下のグレンのシミュレーションでも同様のプロットが見られ、これらすべての結果は実際にはかなり均一に見えます。助けてくれてありがとう!

2
多重線形回帰におけるp値の理解
多重線形回帰分析のp値については、MinitabのWebサイトからの紹介を以下に示します。 各項のp値は、係数がゼロに等しい(影響なし)という帰無仮説を検定します。低いp値(<0.05)は、帰無仮説を棄却できることを示します。言い換えると、予測子の値の変化は応答変数の変化に関連しているため、p値が低い予測子はモデルに意味のある追加になる可能性があります。 たとえば、結果のMLRモデルは です。と出力は以下に示されています。次に、この方程式を使用してyを計算できます。y=0.46753X1−0.2668X2+1.6193X3+4.5424X4+14.48y=0.46753X1−0.2668X2+1.6193X3+4.5424X4+14.48 y=0.46753{{X}_{1}}-0.2668{{X}_{2}}+1.6193{{X}_{3}}+4.5424{{X}_{4}}+14.48 yyy Estimate SE tStat pValue ________ ______ _________ _________ (Intercept) 14.48 5.0127 2.8886 0.0097836 x1 0.46753 1.2824 0.36458 0.71967 x2 -0.2668 3.3352 -0.079995 0.93712 x3 1.6193 9.0581 0.17877 0.86011 x4 4.5424 2.8565 1.5902 0.1292 上記の導入に基づいて、帰無仮説は、係数が0私の理解は、係数は、例えば係数ということで等しいことである、0に設定され、別のYは以下のように計算されるY 2 = 0.46753 X 1 - 0.2668 X 2 + …

1
順列検定の信頼区間とP値の不確実性
私は今、ランダム化テストを学んでいます。私の頭に浮かぶ2つの質問があります。 はい、ランダム化テストでP値を計算する方法は簡単で直感的です(置換テストと同じだと思いますか?)。しかし、通常のパラメトリックテストで行うように、95%の信頼区間をどのように生成することもできますか? 順列検定に関するワシントン大学の文書を読んでいるときに、13ページに次のような文があります。 順列が1000の場合、p。0.05付近の不確実性は約 です。±1%±1%\pm 1\% どのようにしてこの不確実性を得るのでしょうか。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.