タグ付けされた質問 「multiple-comparisons」

複数の仮説検定が実行されたときに、意図されたパワーとサイズの達成が懸念される状況を示します。

3
ピアソンの相関と線形回帰によるボンフェローニ補正
私は5つのIV(5つの性格特性、外向性、快適さ、良心、神経症、開放性)について、PCTに対する態度、CBTに対する態度、PCTに対する態度、CBTに対する統計を実行しています。他にどのような影響があるかを確認するために、年齢と性別も追加しました。 私は、性格特性がDVの態度を予測できるかどうかをテストしています。 私は最初にすべての変数にピアソンの相関を使用しました(45テスト)。 主な発見は、外向性がPCTの態度とp = 0.05で相関していたことでした。しかし、45のテストを実行していたため、アルファ= 0.05 / 45 = 0.001のボンフェローニ補正を実行したため、この結果は重要ではありません。 その後、すべての変数に対して単純な線形回帰を実行しましたが、PCTに対する態度では外向性が有意でした。ボンフェローニ修正を行うと、これは重要ではなくなります。 質問: ピアソンの相関でボンフェローニを修正する必要がありますか? 私がそうし、PCTへの態度を無視した外向性を作る場合、線形回帰を行うことにまだ意味がありますか? 線形回帰を行う場合、これについてもボンフェローニ補正を行う必要がありますか? 修正された値のみ、または修正されていない値と修正された値の両方を報告しますか?

3
「家族ごとの誤り率に関して」「仮説のファミリー」の明確で実用的な定義は何でしょうか?
実験/プロジェクト/分析内で仮説のファミリーを構成するものを評価しようとしたとき、ファミリーを区切るためのガイドラインとして「目的が類似」および「内容が類似」であることがわかりましたが、これらは解釈にかなりの余地を残しています(控えめに言っても)。 分析の過程で、グループ平均のいくつかのテストと比率の均一性のテストの別のバッチを実行する場合、すべてを1つの仮説のファミリーにまとめないことは明らかです。 ただし、グループ平均のいくぶん関連性の高いテストのバッチがいくつかある場合、どの基準がそれらを1つのファミリにまとめるか(またはそれらを別々のファミリに分割するか)?家族のすべてのメンバーが同じ応答変数を持つ必要がありますか?異なる応答変数が含まれていても、同じケースセットが含まれている場合、それらすべてが一連の仮説にまとめられますか?

5
非公式/視覚的な「複数比較」に複数比較の修正は必要ですか?
多重比較の修正がいつ必要かについて、一種の哲学的な質問があります。 連続した時間変化信号を(離散時間点で)測定しています。個別のイベントが時々発生し、これらのイベントが測定された信号に大きな影響を与えるかどうかを確認したいと思います。 したがって、イベントに続く平均信号を取得でき、通常、特定のピークでいくつかの効果を確認できます。そのピークの時間を選択し、t検定でイベントが発生していない場合と有意であるかを判断する場合、多重比較補正を行う必要がありますか? 私はこれまで1つのt検定(計算された1の値)しか実行しませんでしたが、最初の目視検査で、プロットした(たとえば)15の異なるポスト遅延時間ポイントから最大の潜在的効果を持つものを選択しました。では、これまでに実行したことがない15のテストに対して、複数の比較修正を行う必要がありますか? 目視検査を使用せずに、各イベントラグでテストを実行して最も高いものを選択した場合、間違いなく修正する必要があります。テスト自体以外の基準(たとえば、視覚的な選択、最高の平均など)によって「最良の遅延」の選択が行われるかどうかについて、私は少し混乱しています。


4
2 X 3テーブルで複数の事後カイ2乗検定を実行する方法
私のデータセットは、沿岸、ミッドチャネル、オフショアの3つのサイトタイプでの生物の全死亡率または生存率で構成されています。下の表の数字は、サイトの数を表しています。 100% Mortality 100% Survival Inshore 30 31 Midchannel 10 20 Offshore 1 10 100%の死亡率が発生したサイトの数がサイトのタイプに基づいて重要かどうかを知りたいです。2 x 3カイ2乗を実行すると、重要な結果が得られます。実行できる事後的なペアワイズ比較はありますか、または実際にロジスティックANOVAまたは二項分布の回帰を使用する必要がありますか?ありがとう!

1
Tukey HSDテストは、t.testの未補正のP値よりもどのように重要ですか?
私は、「二元配置分散分析の事後的なペアワイズ比較」という投稿(この投稿に対応する)を見つけました。 dataTwoWayComparisons <- read.csv("http://www.dailyi.org/blogFiles/RTutorialSeries/dataset_ANOVA_TwoWayComparisons.csv") model1 <- aov(StressReduction~Treatment+Age, data =dataTwoWayComparisons) summary(model1) # Treatment is signif pairwise.t.test(dataTwoWayComparisons$StressReduction, dataTwoWayComparisons$Treatment, p.adj = "none") # no signif pair TukeyHSD(model1, "Treatment") # mental-medical is the signif pair. (出力はジャバラ付属) ペアになっている(調整されていないp値)t検定が失敗したときに、Tukey HSDが有意なペアを見つけることができる理由を誰かが説明できますか? ありがとう。 これがコード出力です > model1 <- aov(StressReduction~Treatment+Age, data =dataTwoWayComparisons) > summary(model1) # Treatment is signif Df Sum …

2
プロポーションのコンテキストで多重比較の問題を回避するために順列検定を使用できますか?
特定のバイナリの結果を予測するための5つの異なる方法の有効性を評価しています(「成功」と「失敗」と呼びます)。データは次のようになります。 Method Sample_Size Success Percent_Success 1 28 4 0.14 2 19 4 0.21 3 24 7 0.29 4 21 13 0.61 5 22 9 0.40 これら5つの方法の中で相対的な優位性を評価するためのテストを行いたいと思います。つまり、メソッドをパフォーマンスの順にメソッド1>メソッド2> ...メソッド5の順に並べたいのです。複数の比較の問題を回避するために、次のように順列テストを実行する予定です。 ステップ1:すべてのデータをプールして、全体のサンプルサイズが114になり、全体で37の成功を収めます。 ステップ2:データをランダムに5つのグループに分割し、対応するサンプルサイズを28、19、24、21、22にします。 手順3:手順2で観察されたPercent_Successの順序がデータの順序と一致している場合は、カウンターを増分します。 手順4:手順2と3を何度も繰り返します(たとえば10000)。 望ましいp値=最終カウンター値/ 10000。 質問: 上記の手順は大丈夫ですか? 上記のテストを実行できるようにするRの要素はありますか? 改善や代替方法の提案があれば役に立ちます。

2
複数の比率を比較するためにMarascuilo手順を使用した人はいますか?
ここで説明する Marascuiloの手順は、全体的なカイ2乗検定でnullを拒否した後、特定の比率が互いに異なるかどうかをテストする場合に、比率の複数比較の問題に対処するテストのようです。 しかし、私はこのテストにあまり詳しくありません。だから、私の質問: このテストを使用する場合、どのニュアンス(ある場合)を心配する必要がありますか? 同じ問題に対処するために、少なくとも2つの他のアプローチ(以下を参照)を知っています。どのテストが「より良い」アプローチですか?: @Brett Magill がこの回答で言及した「分割されたカイ二乗」の実行 Holm–Bonferroniメソッドを使用してp値を調整します。

2
多重比較問題の原因は何ですか?
MCPの背後にある直感は理解していますが、原因を正確に特定するのに苦労しています。回避すべきこと、または少なくとも説明する必要があることは何ですか。 最も率直な定義で、私はデータを取り、可能なすべての帰無仮説を試してそれに力ずくのアプローチを適用すると、最終的に任意のアルファ(たとえば、5%)で拒否できるものを見つけ、宣言することに同意します発見。 しかし、MCPの多くの定義では、「テストすればするほど、見つかる可能性が高い」などと読みましたが、私は同意しますが、必ずしもそれを問題(または少なくとも問題の根本)とは限りません。たとえば、多くの研究者が同じ現象を同じ利用可能なデータで分析していて、それぞれが独自の仮説を検証している場合、(たった1人の研究者である場合よりも)発見に到達する可能性が高くなります。ターゲットアルファへのある種の補正(たとえば、Bonferroni補正)?私は答えがノーであると仮定していますが、単一の研究者が多くの仮説をテストする必要がある理由が明確になりません(ここでも、テストシステムが悪用される可能性があり、そのための修正があるはずです)。 発見を見つける機会の増加(帰無仮説を拒否)が問題になるのはいつですか?原因について考えるとき、頭に浮かぶいくつかの要因がありますが、これらのうちのどれ(またはここにリストされていないもの)がこの問題の原因に関連しているかはわかりません。 事後分析:仮説は(できれば)アプリオリに定式化する必要があることを理解しています。そうでない場合は、希望のアルファの下でどの仮説を当てはめることができるかを推測するためのデータを調べています。 データの再利用:テストする仮説ごとに異なるデータセットを使用すれば、問題はなくなりましたか?発見を発見する可能性は、私がテストする仮説をさらに増やします(たとえ異なるデータセットであっても)。 独立した研究者:前の例を再利用して、MCPは同じ研究チーム/努力に関連していますか?それとも、同じ問題(または同じまたは類似のデータ)に取り組む複数の独立した研究者に適用されますか? 独立した仮説:前の問題に関連して、仮説が独立しているときに問題が発生しますか(またはより強く現れますか)?(私はより多くの検索スペースをカバーしているため)または主な問題は、小さな変動(たとえば、パラメーターの微調整)で同様の仮説を試すことですか? 上記のポイントを私の解釈で要約すると、(1)と(2)は、発見を見つけやすくするために、検索スペースを削減する(最適化理論から用語を借用する)形です。(3)および(4)それらが適用されるたびに(すなわち、仮説がテストされるたびに)この探索空間のより多くをカバーするより直交する探索法を使用する。しかし、これらは私が思いつく可能性のある考えられる原因のほんの一部であり、答えを始めるのを助けるために、私が確信していない多くがまだあります。 この質問は、多重比較が問題である理由を尋ねる以前の質問からのフォローアップであり、FWERとFDRの違いに似た問題を引き起こします(質問を正しく理解している場合)。この質問では、(FDRを使用する傾向がありますが)問題としては考慮していませんが、両方の率は、複数の仮説を分析するときに問題があることを意味します(ただし、次の場合の違いはわかりません)私はさまざまな無関係な問題を分析し、それぞれ5%の有意性を持つ発見を見つけました。つまり、帰無仮説を拒否する100の問題を「解決」した場合、そのうちの5つ-期待値-はおそらく間違っているでしょう)。その質問への最良の答え 明確な答えはなく、おそらくこの質問に対する答えもない可能性があることを示唆しましたが、MCPエラーの原因がどこにあるのかを可能な限り解明することは(少なくとも私にとっては)非常に役立ちますから来る。 (同じ質問に対する別の回答は、古典的な視点に対するベイジアンマルチレベルモデルの視点の利点を説明する論文を提案しました。これは調査する価値のある別の興味深いアプローチですが、この質問の範囲は古典的なフレームワークです。) この問題について、いくつかの質問に、多くの価値があるの読み取りが既に存在する(例えば、1、2、3、4)の問題は、上記の提起が、(それも可能であれば)、私はまだより統一答えを感じる(異なる視点からの)アドレス不足しているため、この質問は(すでに問題のある)SNRを低下させないことを願っています。

1
FDRを使用した適度な数のテスト(10〜20)での複数のテストの修正?
False Discovery Rate(Benjamini-Hochberg)は、通常、数百のテストを使用した遺伝子研究などの「ビッグデータ」で使用されます。しかし、それは少数のテストでも使用できますか?たとえば、2つのグループ(男性と女性)の結果を、たとえば10〜20の異なるアンケートで調べます。これらの場合、FDR手順は価値/意味/能力を失いますか?

1
多くのグループとの複数の比較
複数の比較テストを使用することが私のデータに適しているかどうかを判断したいと思います。クラスカルウォリス検定を使用して、異なるグループ間で平均阻害に差があるかどうかを判断しました。分析の結果、有意差があることがわかりました。次に、多重比較手順(おそらく、サンプルサイズが異なるのでDunnのもの)を使用して、他のグループと異なるグループを確認します。171717 私は多くのグループ()を持っているので、これは多重比較テストの能力がほとんどないか、このデータセットに対して実行するのに適切ではないのかと思っていました。k = 17k=17k = 17

2
複数のテスト修正の範囲
少し奇妙な質問です。今日の私の4年目の生物統計学のクラスでは、複数のテスト補正を使用する場合と使用しない場合について話し合い、教授はオフハンドでコメントしました。彼は統計を始めて以来、これまでに行ったすべてのテストを修正しないのはなぜかと尋ねました。それらはすべて(ほとんど)独立しており、結果を観察するたびに偽陽性を引き出す確率が高まるからです。彼はその後それを笑い飛ばしましたが、なぜ私たちはこれをしないのですか?明らかにばかげているので、私たちがすべきだと言っているわけではありませんが、テストの修正に関しては、どれほど遠すぎるのでしょうか。 単純化のためにalpha = 0.05と仮定し、各テストA、B、Cはいかなる種類の依存関係も持た​​ず、独立していると言います。私が座ってA、B、Cをテストする場合、それらがTテストかどうかに関係なく、0.95を3の累乗で計算しているため、明らかに複数の補正を調整する必要があり、偽陽性の空ロケットを取得する可能性があります。ただし、A、B、Cを異なる手順のコンテキスト内で異なる日に実行し、それらから異なる結果を引き出した場合、これは以前の状況とどう違うのですか?私たちはまだ3つのテストを観察しています。それらはまだ独立しています。 私が達成しようとしているのは、複数のテスト修正をやめると言う論理的な境界です。1つのテストファミリに対してのみ行うべきか、それとも論文全体に対して行うべきか、これまでに実行したすべてのテストに対して行うべきか?複数のテスト修正を使用する方法を理解し、FDR / Bonferonniを使用するいつも仕事中。このコンセプトは、私の頭の中をぐるぐる回っていました。 お時間をいただきありがとうございます。 編集:より最近の質問で、この問題の詳細な議論があります。

2
ボンフェローニ修正は、いくつかの依存する仮説に対しては保守的すぎませんか?
ボンフェローニ修正は従属仮説にも有効であることをよく読みます。しかし、私はそれが真実だとは思わず、反例があります。誰かが私に(a)私の間違いがどこにあるか、または(b)私がこれについて正しいかどうかを教えてもらえますか? カウンターサンプルの設定 2つの仮説をテストするとします。LET最初の仮説が偽とであるそうでありません。同様に定義します。ましょう二つの仮説に関連したp値であるとしましょう表す括弧の中指定されたセットの指標関数。H1=0H1=0H_{1}=0H1=1H1=1H_{1}=1H2H2H_{2}p1,p2p1,p2p_{1},p_{2}[[⋅]][[⋅]][\![\cdot]\!] 固定されたように定義します これは明らかに確率密度ですオーバー。これは2つの密度のプロットですθ∈[0,1]θ∈[0,1]\theta\in [0,1]P(p1,p2|H1=0,H2=0)P(p1,p2|H1=0,H2=1)===12θ[[0≤p1≤θ]]+12θ[[0≤p2≤θ]]P(p1,p2|H1=1,H2=0)1(1−θ)2[[θ≤p1≤1]]⋅[[θ≤p2≤1]]P(p1,p2|H1=0,H2=0)=12θ[[0≤p1≤θ]]+12θ[[0≤p2≤θ]]P(p1,p2|H1=0,H2=1)=P(p1,p2|H1=1,H2=0)=1(1−θ)2[[θ≤p1≤1]]⋅[[θ≤p2≤1]]\begin{eqnarray*} P\left(p_{1},p_{2}|H_{1}=0,H_{2}=0\right) & = & \frac{1}{2\theta}[\![0\le p_{1}\le\theta]\!]+\frac{1}{2\theta}[\![0\le p_{2}\le\theta]\!]\\ P\left(p_{1},p_{2}|H_{1}=0,H_{2}=1\right) & = & P\left(p_{1},p_{2}|H_{1}=1,H_{2}=0\right)\\ & = & \frac{1}{\left(1-\theta\right)^{2}}[\![\theta\le p_{1}\le1]\!]\cdot[\![\theta\le p_{2}\le1]\!] \end{eqnarray*}[0,1]2[0,1]2[0,1]^{2} により、 と同様に。P(p1|H1=0,H2=0)P(p1|H1=0,H2=1)==12θ[[0≤p1≤θ]]+121(1−θ)[[θ≤p1≤1]]P(p1|H1=0,H2=0)=12θ[[0≤p1≤θ]]+12P(p1|H1=0,H2=1)=1(1−θ)[[θ≤p1≤1]]\begin{eqnarray*} P\left(p_{1}|H_{1}=0,H_{2}=0\right) & = & \frac{1}{2\theta}[\![0\le p_{1}\le\theta]\!]+\frac{1}{2}\\ P\left(p_{1}|H_{1}=0,H_{2}=1\right) & = & \frac{1}{\left(1-\theta\right)}[\![\theta\le p_{1}\le1]\!] \end{eqnarray*}p2p2p_{2} さらに、 これは、 P(H2=0|H1=0)P(H2=1|H1=0)==P(H1=0|H2=0)=2θ1+θP(H1=1|H2=0)=1−θ1+θ.P(H2=0|H1=0)=P(H1=0|H2=0)=2θ1+θP(H2=1|H1=0)=P(H1=1|H2=0)=1−θ1+θ.\begin{eqnarray*} P\left(H_{2}=0|H_{1}=0\right) & = & P\left(H_{1}=0|H_{2}=0\right)=\frac{2\theta}{1+\theta}\\ P\left(H_{2}=1|H_{1}=0\right) & …

2
同じデータに適用された異なる統計的検定からのp値を組み合わせる
質問のタイトルは取るに足らないように見えますが、同様のデータセットで同じ統計的検定を適用して、完全帰無仮説(メタ分析)に対して検定するという問題とは異なるという意味では、それほど簡単ではないことを説明したいと思います。たとえば、p値を組み合わせるためにフィッシャーの方法を使用します)。私が探しているのは、2つの異なる統計検定(t検定とu検定など)のp値を組み合わせる方法(存在する場合、および質問が統計的に有効である場合)です。 2つの母集団からの2つのサンプリングの中心を比較するために適用されます。これまでのところ、明確な答えがなくても、ウェブで多くの検索を行ってきました。私が見つけた最良の答えは、David Bickel(http://arxiv.org/pdf/1111.6174.pdf)によるゲーム理論の概念に基づいていました。 非常に単純な解決策は、投票方式です。観測の2つのベクトルとあり、いくつかのtのような統計(t検定、 u-test、one-way ANOVA)は、2つの過酷な分布の中心(平均、中央値など)が有意水準0.05で等しくないという仮説に対して等しいという仮説を検定します。5つのテストを実行するとします。5つのテストのうち3つでp値が0.05未満の場合、null分布を拒否する十分な証拠があると言うのは正当でしょうか?B = [ B 1、B 2、。。。、b n ]A=[a1,a2,...,an]A=[a1,a2,...,an]A=[a_1, a_2, ..., a_n]B=[b1,b2,...,bn]B=[b1,b2,...,bn]B=[b_1, b_2, ..., b_n] 別の解決策は、全確率の法則を使用することでしょうか、これは完全に間違っていますか?たとえば、がnull分布が拒否されるイベントであるとします。次に、3つのテスト、、(つまり、、可能な値はなります、ここでは、null分布がテストし。T 1 T 2 T 3 P (T 1)= P (T 2)= P (T 3)= 1 / 3 P (A )P (A )= P (A | T 1)P (T 1)+ P …

2
Rを使用して遺伝子リストの重複に複数のテスト補正を適用する方法
同じ薬剤に対する患者の反応を調べた2つの研究があります。研究1では、バックグラウンドを超えて発現する10,000の遺伝子が見つかり、そのうちの500の遺伝子は異なって発現され、薬物応答シグネチャと呼ばれています。研究2では、薬物応答の特徴を表す1,000の遺伝子が見つかりました。2つの署名の重複は100遺伝子です。 署名間のオーバーラップの統計的有意性を計算したい。私が正しく理解している場合、それを行う1つの方法(ここの投稿に基づく:RNA seqとChLPチップデータセットの間の遺伝子リスト重複の確率の計算およびここ:リストの重複確率を取得するためのRのphyperの使用)phyper(): > overlap <- 100 > list1 <- 500 > totalPop <- 10000 > list2 <- 1000 > > 1-phyper(overlap-1, list1, totalPop-list1, list2) [1] 4.103051e-12 それは合理的に聞こえますか? Bonferroni補正を適用したい場合は、このp値に比較回数を掛ける必要があります。この場合、比較の数は何に対応しますか?List2?あるいは、保守的な修正を減らすための迅速な方法は何でしょうか(たとえば、Benjamini-Hochberg)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.