タグ付けされた質問 「statistical-significance」

統計的有意性とは、このサンプルが引き出された母集団において、真の効果が0(またはいくつかの仮説値)であった場合、サンプルで得られたものよりも極端または極端なテスト統計が発生した確率を指します。

2
現実のネットワーク/グラフのすべてのエッジが統計的に偶然に発生する可能性が高いとはどういう意味ですか?
このホワイトペーパーで概説されているバックボーンネットワーク抽出方法を使用しています。http://www.pnas.org/content/106/16/6483.abstract 基本的に、著者は、グラフの各エッジに対して、エッジが偶然に起こった可能性がある確率を生成する統計に基づく方法を提案します。典型的な統計的有意性カットオフ0.05を使用しています。 私はこの方法をいくつかの現実のネットワークに適用してきましたが、興味深いことに、一部のネットワークはエッジがそれほど重要ではなくなります。これがネットワークに何を伴うかを理解しようとしています。この方法をネットワークに適用したがエッジがまったくなかったのは、生成したランダムなネットワークにこの方法を適用したときだけでした。これはまさに期待通りの結果でした。 実社会のネットワークの例として、エコノミストが過去25年間に米国上院の二極化を示した最近のネットワークの視覚化を見たことがあります:http : //www.economist.com/news/united-states/21591190 -united-states-amoeba。これらのネットワークにバックボーンネットワーク抽出方法を適用しましたが、重要なエッジはありませんでした。生のエッジは明らかに優先的な接続とクラスタリングを示していますが、これは偶然ですか?上院の投票ネットワークは本質的にランダムですか?



4
研究が過剰に行われるとはどういう意味ですか?
研究が過剰に行われるとはどういう意味ですか? 私の印象では、サンプルサイズが非常に大きく、ごくわずかな効果サイズを検出できるということです。これらの効果サイズはおそらく非常に小さいため、変数間の(必ずしも直接ではない)因果関係よりも、サンプリングプロセスのわずかなバイアスから生じる可能性が高くなります。 これは正しい直感ですか?もしそうなら、結果がそのように解釈され、見積もられた効果サイズが「意味のある」ほど十分に大きいかどうかを手動でチェックして確認する限り、私は大したことが何であるかわかりません。 何か不足していますか?このシナリオで何をすべきかについてより良い推奨事項はありますか?



1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
精度/再現率/ F1に基づく有意性検定
精度/再現/ F1スコアのみに基づいて有意性検定を行うことは可能ですか? たとえば、P / R / F1のみが報告されている論文(同じデータセットなど)で2つのシステムに遭遇した場合、統計的有意性検定を実行できますか?はいの場合、それはどのように行われますか?

2
平均相関係数の意義
免責事項:この質問が別の質問と非常に類似していると思われる場合は、統合してよかったと思います。しかし、他に満足のいく答えが見つからなかったため(コメントや賛成投票の「評判」はまだありません)、自分で新しい質問をするのが最善だと思いました。 私の質問はこれです。12人の被験者それぞれについて、独立変数Xの6つのレベル間の相関係数(スピアマンのrho)と、従属変数Yの対応する観測値を計算しました(注:Xのレベルは被験者間で等しくありません)。帰無仮説は、一般的な母集団では、この相関はゼロに等しいということです。この仮説を2つの方法でテストしました。 私の12人の被験者から得られた相関係数に1標本t検定を使用します。 XのレベルとYの観測値を中央に配置し、参加者ごとに、mean(X)= 0とmean(Y)= 0を設定して、集計データ(Xの72レベルとYの観測値72)の相関を計算します。 。 ここで、相関係数の操作について(ここや他の場所で)読むことから、最初のアプローチが有効かどうか疑い始めました。特に、平均的な相関係数のt検定として(見かけ上)提示された次の方程式がいくつかの場所でポップアップするのを見ました。 t=rSEr=n−2−−−−−√1−r2−−−−−√t=rSEr=n−21−r2t = \frac{r}{SE_{r}} = \frac{\sqrt{n-2}}{\sqrt{1-r^{2}}} ここで、は平均の相関係数(最初に被験者ごとの係数でフィッシャーの変換を使用してこれを取得したと仮定します)であり、nは観測数です。直観的には、被験者間変動の測定値が含まれていないため、これは私には間違っているようです。つまり、3つの相関係数がある場合、[0.1、0.5、0.9]、[0.45 0.5 0.55]、または同じ平均値(およびn = 3)の値の範囲にかかわらず、同じt統計が得られます。rrrnnnn=3n=3n=3 したがって、上の式は実際には相関係数の平均の有意性をテストするときではなく、2つの変数の観測に基づいて単一の相関係数の有意性をテストするときに当てはまるのではないかと思います。nnn ここの誰かがこの直感を確認したり、なぜそれが間違っているのか説明したりできますか?また、この式が私のケースに当てはまらない場合、誰かが正しいアプローチを知っていますか?または、私のテスト番号2はすでに有効ですか?どんな助けでも大歓迎です(私が見逃したまたは誤解している可能性がある以前の回答へのポインタを含みます)。

5
信頼区間と確率-このステートメントのエラーはどこにありますか?
誰かが以下のような声明を出した場合: 「全体として、環境の煙にさらされた非喫煙者は、煙にさらされなかった非喫煙者と比較して、冠状動脈性心臓病の相対リスクが1.25(95%信頼区間、1.17〜1.32)でした。」 全体としての人口の相対リスクは何ですか?冠状動脈性心臓病に関連するものはいくつありますか?テストできる膨大な数の中で、実際に冠状動脈性心臓病に関連しているものはほとんどないため、ランダムに選択された特定のものが関連している可能性はほとんどありません。したがって、母集団の相対リスクは1であると言えますが、引用された間隔には値1が含まれていません。したがって、実際には2つのものの間に関連があり、その確率は非常に小さいか、またはこれは次のいずれかです。パラメータを含まない5%の間隔。後者は前者よりはるかに可能性が高いので、それは私たちが仮定するべきものです。したがって、適切な結論は、データセットがほぼ確実に母集団の非定型であったことです。 もちろん、5%以上が冠状動脈性心疾患に関連していると仮定する根拠がある場合、統計には、環境煙がその1つであるという示唆を裏付ける証拠がいくつかある可能性があります。常識では、これはありそうもないことです。 彼らの推論の誤りは何ですか(すべての保健機関は間接喫煙の有害な影響に関する重要な文献があることに同意しているので)?「検査できる膨大な数の中で、実際に冠状動脈性心臓病に関連しているものはほとんどない」という彼らの前提のせいですか?この文は、ランダムに選択された要因(すなわち、冠動脈疾患のリスクがある人が犬を何匹所有するか)に当てはまる可能性がありますが、先験的確率は、「任意のランダムな要因」よりも、受動喫煙および冠状動脈性心臓病の方がはるかに高いです。 これは正しい推論ですか?または他に何かありますか?

2
多重ロジスティック回帰で有意な予測子が有意でなくなる
2つの別個の(単変量)ロジスティック回帰モデルで変数を分析すると、次の結果が得られます。 Predictor 1: B= 1.049, SE=.352, Exp(B)=2.85, 95% CI=(1.43, 5.69), p=.003 Constant: B=-0.434, SE=.217, Exp(B)=0.65, p=.046 Predictor 2: B= 1.379, SE=.386, Exp(B)=3.97, 95% CI=(1.86, 8.47), p<.001 Constant: B=-0.447, SE=.205, Exp(B)=0.64, p=.029 しかし、それらを単一の多重ロジスティック回帰モデルに入力すると、次のようになります。 Predictor 1: B= 0.556, SE=.406, Exp(B)=1.74, 95% CI=(0.79, 3.86), p=.171 Predictor 2: B= 1.094, SE=.436, Exp(B)=2.99, 95% CI=(1.27, …

2
Lassoロジスティック回帰における係数の有意性のテスト
[同様の質問がここで行われ、回答はありませんでした] L1正則化(Lassoロジスティック回帰)を使用してロジスティック回帰モデルを適合させ、適合した係数の有意性をテストし、p値を取得したいと考えています。Waldのテスト(たとえば)が正則化なしの完全回帰で個々の係数の有意性をテストするオプションであることは知っていますが、Lassoでは、通常のWaldの公式を適用できない問題がさらに発生すると思います。たとえば、検定に必要な分散推定は、通常の式に従いません。元のなげなわ紙 http://statweb.stanford.edu/~tibs/lasso/lasso.pdf 係数の分散を推定するためのブートストラップベースの手順を提案します。これも(やはり、私は)テストに必要になる可能性があります(セクション2.5、ページ272の最後の段落と273の最初): 1つのアプローチは、ブートストラップを使用することですを修正するか、ブートストラップサンプルごとにを最適化することができます。修正することは、(機能の)最良のサブセットを選択し、そのサブセットの最小二乗標準誤差を使用することに類似していますt tttttttttt 私が理解していることは、正則化パラメーターの最適値(これはブートストラップの一部ではない)が見つかるまでLasso回帰をデータセット全体に繰り返し当てはめ、次にLassoによって選択された機能のみを使用してOLS回帰をサブサンプルに当てはめるデータの計算を行い、通常の式を適用して、それらの各回帰からの分散を計算します。(そして、各係数の最終的な分散の推定値を取得するために、各係数のそれらすべての分散をどうすればよいですか?) さらに、通常の有意性検定(たとえば、推定されたベータと分散を使用するWaldの検定)を、係数のLasso推定とブートストラップ推定の分散で使用することは正しいですか?私はそれがそうではないと確信していますが、どんな助け(別のテストを使うか、もっと簡単なアプローチを使うか、何でも...)は歓迎以上のものです。 ここでの回答によると、推論とp値が得られないのではないかと思います。私の場合、p値は外部要件です(ただし、L1正則化の使用が私の選択でした)。 どうもありがとう 編集 以前のLassoロジスティック回帰の実行で選択された変数のみを使用してOLSロジスティック回帰を近似するとどうなりますか?どうやら(こちらをご覧ください)、 交差検証を行った後、モデルを再度実行する必要はありません(cv.glmnetの出力から係数を取得するだけです)。実際、ペナルティなしで新しいロジスティック回帰モデルを当てはめると、使用する目的が無効になります。なげなわ しかし、変数の数を低く抑えながらp値を計算できるようにすることを唯一の目的としてこれを行うとどうなりますか?それは非常に汚いアプローチですか?:-)

3
2つの類似した時系列がいつ分岐し始めるかを検証する統計的テスト
タイトルから、2つの類似した時系列間の有意差を特定するのに役立つ統計的検定が存在するかどうかを知りたいと思います。具体的には、下の図を見て、系列が時間t1で分岐し始めたこと、つまり、系列間の差が大きくなり始めたことを検出したいと思います。さらに、シリーズ間の差が有意でない場合も検出します。 これを行うのに役立つ統計的検定はありますか?

2
ダービン-ワトソンを除いて、どの仮説検定が決定的な結果を生み出しませんか?
ダービン・ワトソン検定統計量は、それが(この場合、ゼロ自己相関の)帰無仮説を拒絶する拒絶するか失敗するか不可能である不確定領域内に位置することができます。 「決定的でない」結果を生み出す可能性がある他の統計的検定 この一連のテストがバイナリの「拒否」/「失敗の拒否」の決定を行うことができない理由についての一般的な説明はありますか? 誰かが後者のクエリへの回答の一部として意思決定理論上の影響に言及できたら、それはおまけです—結論の(追加の)カテゴリの追加は、タイプIとタイプIIのコストを考慮する必要があることを意味しますかより洗練された方法でエラー?

3
glm in R-どのpvalueがモデル全体の適合度を表すか?
私はG(一般化線形モデル)でglmsを実行しています。私はpvalueを知っていると思いました-glmの要約を呼び出しても、モデル全体を表すオーバーライドpvalueが得られないことがわかるまでは、少なくとも線形モデルの場合はそうではありません。 これは、係数の表の一番上にある切片のp値として指定されているかどうか疑問に思っています。したがって、次の例では、Wind.speed..knotsとcanopy_densityはモデルにとって重要である可能性がありますが、モデル自体が重要であるかどうかをどのように知ることができますか?これらの値を信頼するかどうかはどうすればわかりますか?(切片)のPr(> | z |)がモデルの重要性を表していると思いますか?このモデルは重要な人々ですか??? ありがとう! 2項式族でF検定を実行することは不適切であるというエラーメッセージが表示されるため、F検定を実行してもp値は得られないことに注意してください。 Call: glm(formula = Empetrum_bin ~ Wind.speed..knots. + canopy_density, family = binomial, data = CAIRNGORM) Deviance Residuals: Min 1Q Median 3Q Max -1.2327 -0.7167 -0.4302 -0.1855 2.3194 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 1.8226 1.2030 1.515 0.1298 Wind.speed..knots. -0.5791 0.2628 -2.203 0.0276 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.