あなたが正しい。多重比較の問題は至る所に存在しますが、一般にそれが教えられている方法のために、人々はそれが全体の束の検定を介して互いに多くのグループを比較することに関係していると考えるだけです。実際には、複数の比較の問題が存在するが、多くのペアごとの比較のようには見えない多くの例があります。たとえば、多くの連続変数があり、相関があるかどうか疑問に思う場合は、複数比較の問題があります(ここを参照してください:見て、相関を見つけます)。 t
別の例はあなたが育てるものです。20個の変数を使用して重回帰を実行し、しきい値としてを使用した場合、すべてのnullがtrueであっても、変数の1つが偶然だけで「有意」であると予想されます。多重比較の問題は、多くの分析を実行する数学から単純に生じます。すべての帰無仮説が真であり、変数が完全に無相関である場合、真の帰無を誤って拒否しない確率は(たとえば、場合、これは)。 α=.051 - (1 - α )P、P = 5 0.231−(1−α)pp=5.23
これを軽減する最初の戦略は、モデルの同時テストを実施することです。OLS回帰をフィッティングしている場合、ほとんどのソフトウェアは、出力のデフォルト部分としてグローバル検定を提供します。一般化線形モデルを実行している場合、ほとんどのソフトウェアは類似のグローバル尤度比検定を提供します。このテストは、複数の比較の問題によるタイプIエラーインフレーションからの保護を提供します(ここでの私の回答を参照してください:線形回帰における係数の有意性:有意なt検定vs非有意なF統計)。同様のケースは、いくつかのダミーコードで表されるカテゴリ変数がある場合です。あなたはそれらの解釈したくないFtt-tests、ただしすべてのダミーコードを削除し、代わりにネストされたモデルのテストを実行します。
別の可能な戦略は、ボンフェローニ補正のようなアルファ調整手順を使用することです。これを行うと、家族のタイプIのエラー率が低下するだけでなく、パワーも低下することを理解する必要があります。このトレードオフが価値があるかどうかは、判断を下す必要があります。(FWIW、私は通常、重回帰ではアルファ補正を使用しません。)
値を使用してモデルを選択する問題については、これは本当に悪い考えだと思います。他の変数は「有意ではない」ため、5つの変数を持つモデルから2つの変数のみを持つモデルに移動しません。人々がこれをするとき、彼らは彼らのモデルを偏らせる。ここで私の答えを読むのに役立つかもしれません:これをよりよく理解するための自動モデル選択のアルゴリズム。 p
更新に関しては、最初に単変量相関を評価して、最終的な重回帰モデルで使用する変数を決定することはお勧めしません。これを行うと、変数が互いに完全に無相関でない限り、内生性の問題が発生します。私はここに私の答えでこの問題を議論:推定代わりのb1x1+b2x2b1x1+b2x2+b3x3。
異なる従属変数を使用した分析の処理方法に関する問題に関して、ある種の調整を使用するかどうかは、分析を相互にどのように比較するかによって異なります。従来の考え方は、それらが「家族」であると有意義に見なされているかどうかを判断することです。これについては、ここで説明します。「仮説のファミリー」の明確で実用的な定義は何でしょうか。 このスレッドを読むこともできます:複数の従属変数を予測するメソッド。