タグ付けされた質問 「hypothesis-testing」

仮説検定では、データがランダムな変動の影響ではなく、特定の仮説と矛盾しているかどうかを評価します。

8
グループの違いがないという仮説をテストする方法は?
数値従属変数(例:知能テストのスコア)を調べる2つのグループ(例:男性と女性)での研究があり、グループに違いがないという仮説があるとします。 質問: グループの違いがないかどうかをテストする良い方法は何ですか? グループの違いがないことを適切にテストするために必要なサンプルサイズをどのように決定しますか? 初期の考え: 帰無仮説を棄却できないからといって、対象のパラメーターがゼロに近い、またはゼロに近いわけではないため、標準のt検定を行うだけでは十分ではありません。これは、特に小さなサンプルの場合です。 95%の信頼区間を見て、すべての値が十分に小さい範囲内にあることを確認できました。たぶんプラスまたはマイナス0.3標準偏差。

6
信頼できる地域とベイジアン仮説検定の関係は何ですか?
頻繁な統計では、信頼区間とテストの間には密接な関係があります。約推論使用におけるN (μ 、σ 2)一例として分布を、1 - α信頼区間 ˉ X ± T α / 2(N - 1 )⋅ S / √μμ\muN (μ 、σ2)N(μ,σ2)\rm N(\mu,\sigma^2)1 - α1−α1-\alpha は、有意水準αでt検定によって拒否されないμのすべての値が含まれます。バツ¯± tα / 2(n−1)⋅s/n−−√x¯±tα/2(n−1)⋅s/n\bar{x}\pm t_{\alpha/2}(n-1)\cdot s/\sqrt{n}μμ\mutttαα\alpha この意味で、頻繁な信頼区間は逆のテストです。(ちなみに、私たちは解釈できることを、この手段の最小値として-値αパラメータのNULL値が含まれるであろうために1 - α。信頼区間は、私は、これは何を説明するのに便利な方法であることができることを見つけますp値は、実際には少しの統計を知っている人向けです。)pppαα\alpha1 - α1−α1-\alphappp ベイズの信頼できる領域の決定理論的基礎について読んで、私は信頼できる領域とベイズのテストの間に同様の接続/同等性があるかどうか疑問に思い始めました。 一般的な接続はありますか? 一般的な接続がない場合、接続がある例はありますか? 一般的な接続がない場合、どのようにこれを見ることができますか?

6
有意性検定の仮説としての効果サイズ
今日、Cross Validated Journal Clubで(なぜそこにいなかったのですか?)、@ mbqは次のように尋ねました: 私たち(現代のデータサイエンティスト)は、意味が何を意味するかを知っていると思いますか?そして、それが結果に対する自信にどのように関係しているのでしょうか? @Michelleは、一部の人(私を含む)が通常するように答えました: 私は自分のキャリアを続けるにつれて、重要性の概念(p値に基づく)がますます役に立たなくなってきています。たとえば、非常に大きなデータセットを使用することができるので、すべてが統計的に重要です(p &lt;.01p&lt;.01p<.01) これはおそらく愚かな質問ですが、問題は仮説が検証されているのではないでしょうか?帰無仮説「AはBに等しい」をテストすると、答えは「いいえ」であることがわかります。より大きなデータセットは、この必然的に真の結論に近づくだけです。「ラムの右側の毛の数はその左側の毛の数に等しい」という仮説で例を挙げたのはデミングだったと思います。もちろん、そうではありません。 より良い仮説は、「AはBとそれほど違いはありません」です。または、ラムの例では、「ラムの側面の毛の数はX%を超えて異ならない」。 これは理にかなっていますか?


1
ロジスティック回帰出力、カイ2乗検定、ORの信頼区間でp値が異なるのはなぜですか?
治療を受けた後、結果変数が治癒するロジスティック回帰を構築しました(Curevs. No Cure)。この研究のすべての患者は治療を受けました。糖尿病にかかっていることがこの結果に関連しているかどうかを確認したいです。 Rでは、ロジスティック回帰の出力は次のようになります。 Call: glm(formula = Cure ~ Diabetes, family = binomial(link = "logit"), data = All_patients) ... Coefficients: Estimate Std. Error z value Pr(&gt;|z|) (Intercept) 1.2735 0.1306 9.749 &lt;2e-16 *** Diabetes -0.5597 0.2813 -1.990 0.0466 * ... Null deviance: 456.55 on 415 degrees of freedom Residual deviance: 452.75 …

3
ブートストラップと置換仮説のテスト
ブートストラップ、置換テスト、ジャックナイフなど、実際によく使用されるいくつかの一般的なリサンプリング手法があります。たとえば、Philip I Good(2010)Permutation、Parametric、Bootstrap Tests仮説の 私の質問は、どのリサンプリング手法がより人気があり、実装しやすいのですか?ブートストラップまたは置換テスト?

5
p値は本質的に役に立たず、使用するには危険ですか?
NY Timesのこの記事「The Odds、Continually Updated」たまたま私の注目を集めました。簡潔に言うと、 [ベイジアン統計]は、2013年に沿岸警備隊が行方不明の漁師ジョン・アルドリッジを見つけるために使用した検索など、複雑な問題へのアプローチに特に有用であることが証明されています(これまでのところ、マレーシア航空370便の捜索ではありません)。 ......、ベイジアン統計は、物理学からがん研究、生態学から心理学まで、あらゆるものを波打っています... この記事では、次のような頻度主義者のp値に関する批判もあります。 p値が5パーセント未満の場合、結果は通常「統計的に有意」とみなされます。しかし、この伝統には危険があります、とコロンビアの統計学教授アンドリュー・ゲルマンは言いました。科学者が常に正しく計算を行っていたとしても、そうではないと彼は主張します。p値が5%のすべてを受け入れるということは、20の「統計的に有意な」結果の1つがランダムノイズに他ならないことを意味します。 上記のほかに、おそらくp値を批判する最も有名な論文はこれです-NatureのRegina Nuzzoによる「科学的方法:統計誤差」では、再現性の懸念など、 p値ハッキングなど 統計的妥当性の「ゴールドスタンダード」であるP値は、多くの科学者が想定しているほど信頼性が高くありません。......おそらく、最悪の誤theは、ペンシルベニア大学の心理学者Uri Simonsohnと彼の同僚がPハッキングという用語を広めた一種の自己欺ceptionです。データのred、スヌーピング、釣り、重要度追跡、ダブルディップとしても知られています。「P-hacking」はサイモンソン氏は言います。「意図した結果が得られるまで、複数のことを試みています」。......「その発見はPハッキングによって得られたようです。著者は、全体のp値が.05未満になるように条件の1つを下げました」と「彼女はpハッカーであり、彼女は収集中のデータを常に監視しています。」 別のことは、プロットについてのコメント付きの、ここから続く興味深いプロットです: 効果がどれほど小さくても、p &lt;.05のしきい値を渡すために、常にデータを収集するという大変な作業を行うことができます。調査している効果が存在しない限り、p値はデータ収集にどれだけの労力を費やしたかを測定するだけです。 上記のすべてについて、私の質問は次のとおりです。 2番目のブロック引用でのAndrew Gelmanの議論は正確に何を意味するのでしょうか?なぜ彼は5%のp値を「統計的に有意な結果の20分の1が注目に値するがランダムなノイズ」と解釈したのですか?私にとって、p値は1つの研究の推論に使用されるため、私は確信していません。彼のポイントは複数のテストに関連しているようです。 更新: Andrew Gelmanのこれについてのブログを確認してください:いいえ、私はそれを言わなかった!(@ Scortchi、@ whuberへのクレジット)。 p値についての批判と、モデルの重要性を評価するためのAIC、BIC、Mallowの(したがって変数)のような多くの情報基準があるため、変数選択にp値を使用しないでくださいそれらのモデル選択基準を使用する以外はすべて?CpCpC_p より信頼性の高い研究結果につながる可能性のある統計分析にp値を使用する実用的なガイダンスはありますか? 統計学者が主張するように、ベイジアンモデリングフレームワークは追求するより良い方法でしょうか?具体的には、ベイジアンアプローチは、データの問題の誤検出や操作を解決する可能性が高いでしょうか?事前のアプローチはベイジアンのアプローチでは非常に主観的であるため、ここでも納得できません。ベイジアンのアプローチが頻度主義者のp値よりも優れていることを示す実用的で有名な研究はありますか、少なくとも特定のケースではありますか? 更新:ベイジアンアプローチが頻度主義者のp値アプローチよりも信頼できる場合があるかどうかに特に興味があります。「信頼できる」とは、ベイジアンアプローチが望ましい結果を得るためにデータを操作する可能性が低いことを意味します。助言がありますか? アップデート6/9/2015 ニュースに気付いたばかりで、議論のためにここに置いておくといいと思いました。 心理学ジャーナルはP値を禁止 少なくとも1つのジャーナルで、物議を醸す統計テストが最終的に終わりました。今月初め、Basic and Applied Social Psychology(BASP)の編集者は、統計が低品質の研究をサポートするためにあまりにも頻繁に使用されたため、P値を含む論文を出版しないと発表しました。 Natureの P値についての最近の論文「気まぐれなP値は再現性のない結果を生成します」に加えて 2016年5月8日更新 3月に、米国統計協会(ASA)は統計的有意性とp値に関する声明を発表しました。「.... ASAの声明は、研究を「ポストp &lt;0.05時代」に導くことを目的としています」 このステートメントには、p値の誤用に対処する6つの原則が含まれています。 P値は、データが指定された統計モデルとどの程度互換性がないかを示すことができます。 P値は、調査した仮説が真である確率、またはデータがランダムチャンスのみによって生成された確率を測定しません。 科学的結論とビジネスまたは政策決定は、p値が特定のしきい値を超えるかどうかだけに基づいてはなりません。 適切な推論には、完全なレポートと透明性が必要です。 p値または統計的有意性は、効果の大きさや結果の重要性を測定しません。 p値自体は、モデルまたは仮説に関する証拠の適切な尺度を提供しません。 詳細: …

3
仮説検定でのp値の解釈
私は最近、「ヌル仮説の有意性試験の無意味」という論文、ジェフ・ギル(1999)に出会いました。著者は、仮説検定とp値に関するいくつかの一般的な誤解を提起しました。 p値は技術的にはであり、論文で指摘されているように、一般にについては何も教えません。 「日常的な」仮説検定ではめったにないような、限界分布を知っている場合を除きます。小さなp値を取得し、「帰無仮説を拒否」すると、について何も言えないので、作成している確率論的ステートメントは正確に何ですか?P (H 0 | o b s e r v a t i o n)P (H 0 | o b s e r v a t i o n)P(o b s e r v a t i o n | H0)P(observat私on|H0)P({\rm observation}|H_{0})P(H0| o b s e r v …


5
自己相関のテスト:Ljung-Box対Breusch-Godfrey
生データまたはモデル残差の自己相関をテストするために非常に頻繁に使用されるLjung-Boxテストを見るのに慣れています。自己相関のための別のテスト、つまりBreusch-Godfreyテストがあることを忘れていました。 質問: Ljung-BoxとBreusch-Godfreyのテストの主な違いと類似点は何ですか? (参考文献は歓迎されている。どういうわけか、私はどの見つけることができませんでした比較私はの説明を見つけることができた。私は、いくつかの教科書に見て、材料をオンラインで検索が二つの試験のを個別に各テストを、しかし、私は、ISに興味を持っています2つの比較。)

4
片側仮説検定の正当化
両側仮説検定を理解しています。があり(vs.)。 -値は確率である観察されたものなど、極端として、少なくともデータを生成します。H0:θ=θ0H0:θ=θ0H_0 : \theta = \theta_0H1=¬H0:θ≠θ0H1=¬H0:θ≠θ0H_1 = \neg H_0 : \theta \ne \theta_0pppθθ\theta 片側仮説検定が理解できません。ここで、(vs.)。p値の定義は上記から変更されてはなりません。それは、少なくとも観測されたものと同じくらい極端なデータを生成する確率であるべきです。しかし、我々はありません知っているそれがで上位囲まれた唯一のこと、。H0:θ≤θ0H0:θ≤θ0H_0 : \theta\le\theta_0H1=¬H0:θ&gt;θ0H1=¬H0:θ&gt;θ0H_1 = \neg H_0 : \theta > \theta_0θθ\theta θθ\thetaθ0θ0\theta_0 したがって、代わりに、(では)と仮定し、これが少なくとも観測されたものと同じくらい極端なデータを生成する確率を計算しますが、一方の端でのみ。技術的には、これは仮説とは無関係のようです。θ=θ0θ=θ0\theta = \theta_0θ≤θ0θ≤θ0\theta \le \theta_0H0H0H_0 さて、これは頻度論的仮説のテストであり、頻度論者は事前分布を置かないことを理解しています。しかし、それは単に、上記の計算を写真に当てはめるのではなく、仮説を受け入れたり拒否したりすることが不可能であることを意味するのではないでしょうか?θθ\theta

3
線形回帰における有意性の矛盾:係数の有意なt検定対有意でない全体的なF統計量
4つのカテゴリ変数(それぞれ4レベル)と数値出力の間に多重線形回帰モデルを当てはめています。データセットには43個の観測値があります。 回帰により、すべての勾配係数のから次の値が得られます:.15、.67、.27、.02。したがって、4番目の予測子の係数は、\ alpha = .05信頼レベルで有意です。pppttt.15 、.67 、.27 、.02.15、.67、.27、.02.15, .67, .27, .02α =0.05α=.05\alpha = .05 一方、回帰では、すべての勾配係数がゼロに等しいという帰無仮説の全体的なF検定からppp値が得られます。私のデータセットでは、このp値は.11です。FFFppp.11.11.11 私の質問:これらの結果をどのように解釈すればよいですか?どのppp値を使用する必要があり、その理由は何ですか?4番目の変数の係数は、\ alpha = .05信頼レベルで000と大きく異なりますか?α = 0.05α=.05\alpha = .05 私は、関連する質問、見てきたFFFとttt回帰で統計を、しかし逆の状況があった:高ttt検定ppp -値と低FFF検定ppp -値が。正直なところ、線形回帰係数がゼロと有意に異なるかどうかを確認するために、tテストに加えてFFFテストが必要になる理由はよくわかりません。ttt

3
ロジスティック回帰の95%信頼区間を手動で計算することと、Rでconfint()関数を使用することに違いがあるのはなぜですか?
皆さん、私は説明できない奇妙なことに気づきました、できますか?要約すると、ロジスティック回帰モデルで信頼区間を計算する手動のアプローチとR関数confint()は異なる結果をもたらします。 Hosmer&LemeshowのApplied Logistic Regression(第2版)を行ってきました。第3章には、オッズ比と95%の信頼区間を計算する例があります。Rを使用すると、モデルを簡単に再現できます。 Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(&gt;|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

4
素粒子物理学で証拠を受け入れるための「
ニュースレポートによると、CERN は明日、ヒッグス粒子が5つの証拠で実験的に検出されたことを発表すると発表しています。その記事によると:σσ\sigma 5は、CMSおよびATLAS検出器が見ているデータがランダムノイズではない99.99994%の可能性に相当します。5は、何かが科学的な「発見」と正式にラベル付けされるために必要な確実性です。σσσ\sigmaσσ\sigma これは、超厳格ではありませんが、物理学者は、統計的な手法を「仮説検定」の設定標準を使用することを言っているようだにに、その対応(2がテイル)?それとも他の意味がありますか?0.0000006 Z = 5αα\alpha0.00000060.00000060.0000006z= 5z=5z=5 もちろん、科学の多くでは、アルファを0.05に設定することは日常的に行われています。これは "two- "の証拠に相当しますが、それが呼ばれたことは聞いたことがないです。アルファのより厳密な定義が標準である他のフィールド(粒子物理学以外)はありますか?5ルールが粒子物理学でどのように受け入れられたのかについてのリファレンスを知っている人はいますか?σσσ\sigmaσσ\sigma 更新:簡単な理由でこの質問をしています。私の本の直観的生物統計学(ほとんどの統計の本のように)には、通常の「P &lt;0.05」ルールがいかにarbitrary 意的であるかを説明するセクションがあります。私は科学的分野のこの例を追加したいと思います。そこでは、はるかに(ずっと!)小さい値が必要と考えられています。しかし、例が実際にはより複雑で、ベイジアンメソッドを使用している場合(以下のコメントが示唆するように)、それはまったく適切ではないか、より多くの説明が必要になります。αα\alpha

2
p値を理解する
p値を説明する多くの資料があることを知っています。しかし、この概念は、さらに明確にしないとしっかりと把握するのは容易ではありません。 ウィキペディアのp値の定義は次のとおりです。 p値は、帰無仮説が真であると仮定して、少なくとも実際に観測されたものと同じくらい極端な検定統計量を取得する確率です。(http://en.wikipedia.org/wiki/P-value) 私の最初の質問は、「少なくとも実際に観察されたものと同じくらい極端な」という表現に関するものです。p値の使用の根底にあるロジックの私の理解は次のとおりです。p値が小さい場合、帰無仮説を仮定して観測が行われた可能性は低く、観測を説明するために代替仮説が必要になる場合があります。p値がそれほど小さくない場合は、帰無仮説を仮定するだけで観測が行われた可能性が高く、観測を説明するのに対立仮説は必要ありません。したがって、誰かが仮説を主張したい場合、彼/彼女は帰無仮説のp値が非常に小さいことを示さなければなりません。この見解を念頭に置いて、あいまいな表現の私の理解は、p値がmin[P(X&lt;x),P(x&lt;X)]min[P(X&lt;x),P(x&lt;X)]\min[P(X<x),P(x<X)]、統計のPDFが単峰性の場合、XXXは検定統計量、xxxは観測から取得した値です。これは正解?正しい場合、統計のバイモーダルPDFを使用することはまだ可能ですか?PDFの2つのピークが適切に分離されており、観測値が2つのピーク間の低確率密度領域のどこかにある場合、p値はどの間隔で確率を与えますか? 2番目の質問は、ヴォルフラムMathWorldからp値の別の定義についてです。 変量が偶然に厳密に観測値以上の値をとる確率。(http://mathworld.wolfram.com/P-Value.html) 「偶然に」というフレーズは「帰無仮説を仮定する」と解釈されるべきだと理解しました。そうですか? 3番目の質問は、「帰無仮説」の使用を考えています。誰かがコインが公正であることを主張したいと仮定しましょう。彼は、頭の相対頻度が0.5であるという仮説を表現しています。帰無仮説は、「頭の相対頻度は0.5ではありません」です。この場合、帰無仮説のp値の計算は困難ですが、対立仮説の計算は簡単です。もちろん、2つの仮説の役割を入れ替えることで問題を解決できます。私の質問は、元の対立仮説のp値に直接基づいた拒否または受け入れ(帰無仮説を導入せず)はそれがOKかどうかです。うまくいかない場合、帰無仮説のp値を計算するときのそのような困難に対する通常の回避策は何ですか? このスレッドでの議論に基づいて、より明確な新しい質問を投稿しました。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.