FDR制御に通常の方法を使用するための条件としての「正の依存関係」の意味


36

BenjaminiとHochbergは、False Discovery Rate(FDR)を制御するための最初の(そして今でも最も広く使用されていると思う)メソッドを開発しました。

それぞれ異なる比較のためのP値の束から始め、どの値が「ディスカバリー」と呼ばれるほど低いかを判断し、FDRを指定された値(たとえば10%)に制御します。通常の方法の仮定の1つは、比較のセットが独立しているか「正の依存関係」を持っていることですが、P値のセットを分析する文脈でそのフレーズが何を意味するか正確にはわかりません。


1
私の答え、ハーベイに賞金を授与してくれてありがとう!それはあなたのためにこの問題を解決すると言いますか、またはあなたはより詳細な説明を探していますか?私はあなたがまだ答えを受け入れていないことに気付きました。それが私が明確にしたい理由です。ありがとう。おそらく、Qをコメント化または編集して、明確にしたいことを明確にすることができます。
アメーバは、モニカを復活させる

2
@アメーバ。賞金の締め切りは私にかかっていました、そしてあなたの答えは断然最高でした。率直に言って、賞金を与えることも答えを受け入れないということは、その瞬間私には決して起こりませんでした。しかし、私はそれらが明確であることを知っています(時差ぼけを非難します)。しかし、完全な答えには、P値のセットに正の依存関係がある場合とない場合の両方の現実的な例を含める必要があります。誰かが両方の種類の例を与えることができることを期待して、私は一週間の回答を受け入れることを控えますので、意味は明確です。
ハーベイモトゥルスキー

これはおそらく満足のいく例ではありませんが、相関変数で片側検定を実行することを考えれば、正の依存関係がある場合とない場合のp値を見つけるのは本当に簡単です。片側の選択肢(A> 0およびB> 0)に対してA = 0かどうか、またB = 0かどうかをテストしていると想像してください。さらに、BがAに依存していることを想像してください。たとえば、人口に男性よりも女性が多いかどうか、また、精巣よりも卵巣が多いかどうかを知りたいとします。明らかに第二のp値の私たちの期待を変更する最初の質問のp値を知る
ジェイコブSocolar

ありがとう、ハーヴェイ。私があなたに私の答え(!!)を受け入れるようにプッシュするのではなく、このスレッドでどのような答えを探しているのか、そしてあなたがまだ明らかにしたいことを明確にするためにあなたをプッシュしようとしていないことは明らかだったと思います。私は本当にこのトピックの専門家ではなく、それを理解しようとしています。
アメーバは

両方のp値が同じ方向に変化し、これがPRDです。しかし、代わりに、母集団2が卵巣よりも精巣が多いという2番目の仮説をテストすると、最初のp値が増加するにつれて2番目のp値に対する期待は減少します。これはPRDではありません。
ジェイコブソコラー

回答:


20

あなたの質問からや他の回答にコメント特に、それはあなたが主にここで「全体像」について混乱しているように私には思える。すなわち、何を「正の依存性は、」このコンテキスト内を参照してくださいすべてで -とは対照的に、どのようなPRDS状態の技術的な意味です。それで、全体像についてお話します。

大きな絵

帰無仮説をテストしており、それらすべてが真であると想像してください。N p値のそれぞれはランダム変数です。何度も何度も実験を繰り返すことdiffernetの生じるであろうPつの分布について話すことができるように、-value毎回のp(ヌル下) -値。どのテストでも、nullの下のp値の分布は均一でなければならないことはよく知られています。そのため、複数テストの場合、p値のN個の周辺分布はすべて均一になります。NN ppppNp

すべてのデータとすべてのテストが互いに独立している場合、p値の結合N次元分布も均一になります。これは、例えば、独立したものの束がテストされている古典的な「ゼリービーン」の状況で真実です。NNp

グリーンゼリービーンズ

ただし、そのようにする必要はありません。原則として、値の任意のペアは、正または負のいずれかに相関するか、またはより複雑な方法で依存することができます。4つのグループ間で平均のすべてのペアワイズの差をテストすることを検討してください。これはN = 4 3 / 2 = 6の試験。6つのp値だけがそれぞれ均一に分布します。しかし、それらはすべて正の相関関係があります:(特定の試行で)グループAの偶然の平均が特に低い場合、A-vs-B比較で低いp値が得られる可能性があります(これは誤検出になります)。しかし、この状況では、A-vs-DだけでなくA-vs-Cも低いppN=43/2=6ppp値。したがって、値は明らかに非独立であり、さらに相互に正の相関があります。p

これは、非公式には、「正の依存関係」が指すものです。

これは、複数のテストで一般的な状況のようです。別の例は、互いに相関しているいくつかの変数の違いをテストすることです。それらの1つで有意差を取得すると、別の有意差を取得する可能性が高くなります。

値が「負に依存する」自然な例を考え出すのは難しいです。@ user43849は、上記のコメントで、片側テストでは簡単であると述べました。p

片側の選択肢(A> 0およびB> 0)に対してA = 0かどうか、またB = 0かどうかをテストしていると想像してください。さらに、BがAに依存していることを想像してください。たとえば、人口に男性よりも女性が多いかどうか、また、精巣よりも卵巣が多いかどうかを知りたいとします。最初の質問のp値を明確に知ると、2番目の質問のp値に対する期待が変わります。両方のp値が同じ方向に変化し、これがPRDです。しかし、代わりに、母集団2が卵巣よりも精巣が多いという2番目の仮説をテストすると、最初のp値が増加するにつれて2番目のp値に対する期待は減少します。これはPRDではありません。

しかし、私はこれまでのところ、ヌル点の自然な例を思い付くことができませんでした。


現在、Benjamini-Hochberg手続きの有効性を保証する「正の依存関係」の正確な数学的定式化は、かなり注意が必要です。他の回答で述べたように、主な参考文献はBenjamini&Yekutieli 2001です。それらは、PRDSプロパティ(「サブセットからの各コンポーネントへの正の回帰依存性」)がBenjamini-Hochberg手続きを必要とすることを示しています。これは、PRD(「正の回帰依存性」)プロパティの緩和された形式です。つまり、PRDはPRDSを意味し、したがってBenjamini-Hochberg手続きも伴います。

PRD / PRDSの定義については、@ user43849の回答(+1)とBenjamini&Yekutieliの論文をご覧ください。定義はかなり技術的であり、私はそれらの直感的な理解が十分ではありません。実際、B&Yは、他のいくつかの関連する概念にも言及しています。2次の多変量総陽性(MTP2)と正の関連性です。B&Yによると、それらは次のように関係しています(図は私のものです):

PRD、PRDS、MTP2、およびPA

MTP2は、BH手順の正確性を保証するPRDSを意味するPRDを意味します。PRDもPAを意味しますが、PA PRDSです。


負の依存性の一例は以下のようになり、ポストホックペアワイズ、たとえば、以下の試験3つの群のANOVA一方向、しかしˉ X B < μ B、一方ˉ X Aμ A、及びˉ X Cμ C、そうしながら、p個のA  対  Bがであるより少ない可能性拒絶する(下なぜならH 0 | ˉ X A - ˉμA<μB<μCx¯B<μBバツ¯AμAバツ¯CμCpA 対 BH0 )が、依存関係のためにp個のB 対 Cはあるより拒絶する可能性が高いですか?|バツ¯Aバツ¯B|<|バツ¯Bバツ¯C|pB vs. C
アレクシス

1
@アレクシス私はこれらの線に沿って自分で考えていましたが、nullの下で何が起こるかを考慮する必要があるため、これがうまくいくとは思いません。この場合は、nullはということである、およびダウンあなたの推理休憩そう。μA=μB=μC
アメーバは、モニカーを復活させる

したがって、負の依存関係の状況を考えるのが難しい場合、Benjamini-Hochberg手続きは、独立グループに関するオムニバス帰無仮説の拒否後の事後ペアワイズ検定などの状況に有効です(たとえば、ANOVA、Cochran's Q、Kruskal-ウォリスなど)?
アレクシス

@Alexisこれは正しいと思います、はい。私はまだ負の依存性を持つ自然の例を思い付くしようとしています...
アメーバは回復モニカ言う

岩!行くぞ、女の子!:)(「女の子」という言葉の性別のない意味の場合;)。
アレクシス

18

いい質問です!戻って、Bonferroniが何をしたか、そしてBenjaminiとHochbergが代替を開発する必要があった理由を理解しましょう。

近年、マルチプルテスト補正と呼ばれる手順を実行することが必要かつ強制的になっています。これは、特に全ゲノム関連研究(GWAS)の出現に伴う遺伝学において、ハイスループット科学と同時に実行されるテストの数が増えているためです。遺伝学は私の仕事の領域なので、私の言い訳をすみません。我々は同時に1,000,000テストを実行している場合は、我々は期待する50 000偽陽性を。これはばかげているほど大きいため、重要度を評価するレベルを制御する必要があります。ボンフェローニ補正、つまり、受け入れしきい値(0.05)を独立テストの数0.05 / MP=0.0550,000家族ごとのエラー率( F W E R )を修正します。(0.05/M)FWER

FWERが試験的なエラーレートに関連しているので、これは真である()式によりF W E R = 1 - 1 - T W E R M。つまり、100パーセントから1を引いた値が、実行された独立テストの数の累乗でテストごとのエラー率を引きます。1 0.05 1 / M = 1 0.05という仮定を立てるTWERFWER=1(1TWER)M与えTWER0.05(10.05)1/M=10.05Mは、M個の完全に独立したテスト用に調整された許容P値です。TWER0.05M

私たちが今直面している問題は、BenjaminiとHochbergと同様、すべてのテストが完全に独立しているわけではないということです。したがって、Bonferroni補正は堅牢で柔軟ですが、過補正です。連鎖不平衡と呼ばれるケースで2つの遺伝子がリンクされている遺伝学の場合を考えてみましょう。つまり、ある遺伝子に変異がある場合、別の遺伝子が発現する可能性が高くなります。これらは明らかに独立したテストではありませんが、ボンフェローニ補正ではであると想定されています。ここで、P値をMで除算することにより、相互に実際に影響を与える独立したテストが想定されるため、人為的に低いしきい値が作成されます。独立していません。

BenjaminiとHochbergによって提案され、Yekutieli(および他の多く)によって補強された手順は、Bonferroniよりもリベラルであり、実際、Bonferroni補正は非常に大きな研究でのみ使用されています。これは、FDRでは、テストの一部に相互依存性があり、したがって、Mが大きすぎて非現実的であり、実際に私たちが気にしている結果を取り除くためです。したがって、独立していない1000個のテストの場合、真の Mは1000ではなく、依存関係のためより小さな値になります。したがって、0.05を1000で除算すると、しきい値が厳しすぎて、興味のあるテストを回避できます。

依存関係の制御の背後にあるメカニズムを気にするかどうかはわかりませんが、そうする場合は、参考のためにYekutieliの論文をリンクしました。また、あなたの情報と好奇心のために、いくつか他のものを添付します。

これが何らかの形で役立ったことを願っています。何かを誤って伝えた場合はお知らせください。

〜〜〜

参照資料

正の依存関係に関するYekutieliの論文-http ://www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf

(1.3-問題を参照してください。)

ボンフェローニおよびその他の関心事の説明-Nature Geneticsレビュー。大規模遺伝子研究における統計的検出力と有意性検定-Pak C ShamおよびShaun M Purcell

(ボックス3を参照してください。)

http://en.wikipedia.org/wiki/Familywise_error_rate

編集:

以前の回答では、正の依存関係を直接定義していませんでした。Yekutieliの論文で2.2は、セクションに「正の依存性」というタイトルが付けられています。これは非常に詳細なので、これをお勧めします。ただし、もう少し簡潔にできると思います。

I0I0

PRDS

XI0XI0XI0xX

P

要約すると、正の依存関係のプロパティは、真のnullテスト統計のセットに対するテスト統計のセット全体の正の回帰依存関係のプロパティであり、0.05のFDRを制御します。したがって、P値はボトムアップ(ステップアップ手順)から進むにつれて、ヌルセットの一部である可能性が高くなります。

共分散行列に関するコメントでの私の以前の回答は間違っていませんでしたが、少し曖昧です。これがもう少し役立つことを願っています。


6
ありがとう。家族ごとのエラー率の制御(Bonferroniなど)とFDRの制御の概要を明確に説明していますが、「正の依存関係」の意味がまだわかりません。私は1000個のP値を持っていると考えて、1000人の異なる遺伝子の発現をテストして、病気のある人とない人を比較します。BHメソッドを使用して、これらの比較のどちらが「発見」であるかを判断します。この文脈で「正の依存関係」とはどういう意味ですか?
ハーベイモトゥルスキー14

9
小さいが重要な注意:ボンフェローニは、独立性について全く仮定をしていません。実際、相互に排他的なケースでは正しくカバーされますが、ある意味では、あなたが得ることのできる独立性からは程遠いものです。そこの独立性を仮定しないし、より強くその仮定の下でFWERを制御する補正手順(Sidakの方法で)。この回答の他の側面では、若干の軽い修正も使用できます。
枢機

2
@ChrisCまだわかりません。「要素間の共分散行列」?私はP値のリストから始めて、(FDRを制御して)フォローアップする価値のある「ディスカバリー」と呼ばれるほど低いものを決定したいと思います。共分散行列の要素は何ですか?各P値がグループ間で特定の遺伝子の発現を比較しており、そのような遺伝子が多数あるとします。各遺伝子について、テスト時にグループを比較して、P値が得られます。この状況で、「一緒に変化する要素」または「それらの間の正の相関」を持つことはどういう意味ですか?
ハーベイモトルスキー14

2
@ChrisCありがとう。それはより明確になりますが、私はまだこの仮定が何を意味するか本当に理解していません。メソッドの背後にある仮定について知ることの全体のポイントは、いつ違反する可能性があるかを知ることです。そのため、仮定が正しくないいくつかのシナリオをリストするのに役立ちます。低いP値は、帰無仮説が偽である可能性が高いことに関連付けられないのはいつですか?
ハーベイモチュルスキー

1
これは質問に答えません。
アレクシス

10

私が見つかりました。このプレプリントが意味を理解するのに役立ちます。この答えは、このトピックの専門家としてではなく、コミュニティによって吟味され、検証されることを理解しようとするものであると言わなければなりません。

PRDとPRDSの違いについて非常に有益な観察をしてくれたAmoebaに感謝、コメントを参照

pCpC

  1. qC
  2. rqrqri<qii
  3. rC

C

pp1...pn<B1...BnpCB1...Bn

pipipip1...pnp1...pnpi

p1...pn

pnpn<BBpn<Bpn<BB

追加するために編集:

以下は、PRDSではないシステムの推定例です(以下のRコード)。ロジックは、サンプルaとサンプルbが非常に似ている場合、その製品が非定型になる可能性が高いということです。この効果((a*b), (c*d)比較のためのnullの下でのp値の不均一性ではない)がp値の負の相関を駆動しているのではないかと疑っていますが、確信はありません。2番目の比較(ウィルコクソンではなく)でt検定を行うと同じ効果が現れますが、p値の分布はまだ一様ではなく、おそらく正規性の仮定の違反が原因です。

ab <- rep(NA, 100000)  # We'll repeat the comparison many times to assess the relationships among p-values.
abcd <- rep(NA, 100000)

for(i in 1:100000){
  a <- rnorm(10)    # Draw 4 samples from identical populations.
  b <- rnorm(10)
  c <- rnorm(10)
  d <- rnorm(10)

  ab[i] <- t.test(a,b)$p.value          # We perform 2 comparisons and extract p-values
  abcd[i] <- wilcox.test((a*b),(c*d))$p.value
}

summary(lm(abcd ~ ab))    # The p-values are negatively correlated

ks.test(ab, punif)    # The p-values are uniform for the first test
ks.test(abcd, punif)   # but non-uniform for the second test.
hist(abcd)

申し訳ありませんが、私は本当にこれに従いません。
ハーヴェイモトゥルスキー

新しい最後の段落はそれを完全にクリアしますか?
ジェイコブソコラー

@アメーバ、ええ、あなたは正しいと思います。以前のポスターにリンクされているYekutieliの論文はPRDSの扱いです。私が知る限り、PRDは同じプロパティですが、真のヌルに対応するサブセットだけでなく、すべてのテスト統計(またはp値)にわたっています。
ジェイコブソコラー

1
うん、あなたは絶対に正しい。編集中。
ジェイコブソコラー

1
興味深い例ですが、効果は非常に弱いです:相関係数(abとabcdの間)は約-0.03になります...しかし、わかりません。なぜ「サンプルaとbが非常に似ているのか」 、彼らの製品は非定型である可能性が高い」
アメーバは、モニカを復活させる

4

彼らの論文では、BenjaminiとYekutieliは、正の回帰依存性(PRD)が単に正に関連していることとどのように異なるかの例を示しています。FDR制御手順は、PRDSと呼ばれる弱い形式のPRD(つまり、変数のサブセットからの各PRD)に依存しています。

正の依存関係は、もともとLehmannによる二変量の設定で提案されましたが、正の回帰依存関係として知られるこの概念の多変量バージョンは、複数のテストに関連するものです。

pg.6からの関連抜粋を次に示します。

X(X1X2バツh(X1)X2h(X1)


2

この場合の正の依存性とは、一連のテストが正の相関があることを意味します。そのため、P値を持つテストセットの変数が正の相関がある場合、各変数は独立ではありません

たとえば、ボンフェローニのp値の修正について考え直す場合、有意性のしきい値を0.1 / 100 = 0.001に設定することにより、100個の統計的に独立したテストでタイプ1のエラー率が10%未満であることを保証できます。しかし、これらの100個のテストのそれぞれが何らかの形で相関しているとしたらどうでしょうか?その後、実際には100の個別のテストを実行していません。

FDRでは、アイデアはボンフェローニ補正とは少し異なります。重要だと宣言するものの特定の割合(たとえば10%)だけが誤って重要と宣言されることを保証するという考え方です。データセットに相関マーカー(正の依存関係)がある場合、実行するテストの総数に基づいてFDR値が選択されます(ただし、統計的に独立したテストの実際の数は少なくなります)。このように、誤検出率がP値のセットのテストの10%以下を誤って宣言していると結論付ける方が安全です。

正の依存関係については、この本の章を参照してください。


2
FDR対Bonferroniを説明しますが、「正の依存関係」を定義せずに、単に「正の相関関係」に言い換えますが、わかりません。私は1000個のP値を持っていると考えて、1000人の異なる遺伝子の発現をテストして、病気のある人とない人を比較します。BHメソッドを使用して、これらの比較のどちらが「発見」であるかを判断します。この文脈で「正の依存関係」とはどういう意味ですか?
ハーベイモトルスキー14

5
この答えはまったく間違っています。正の回帰依存性と正の関連付けは、互いに異なります。Benjamini Yekutieliの論文はこれを説明し、参考文献も提供しています。「それにもかかわらず、PRDSと正の関連性は相互に関係しておらず、違いはある程度重要です。たとえば、多変量正規分布は、すべての相関が非負である場合に正に関連します。以下のセクション3.1、ケース1をご覧ください。」pgを参照してください。紙の6。
user3303
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.