これは私自身の質問ですが、答えとして自分自身の2セントも投稿するので、この質問に関する多くの視点を追加します。ここでの問題は、最初に1パラメーター分布をデータに適合させることが賢明かどうかです。1パラメーター分布(ポアソンGLM、または固定試行パラメーターを使用した2項GLMなど)を使用する場合、分散は自由パラメーターではなく、平均の何らかの関数に制約されます。これは、分散がその分布の構造に従うことを完全に確信できない状況では、1パラメーター分布をデータに適合させることはお勧めできません。
1パラメーター分布をデータに近似することは、ほとんどの場合悪い考えです。データは、提案されたモデルが示すよりもしばしば厄介であり、特定の1パラメーターモデルが取得できると信じる理論的な理由がある場合でも、多くの場合、データは実際には、その1つのパラメーター分布とパラメーター値の範囲が混在しています。これは、多くの場合、分散の自由度を高める2パラメーター分布などのより広範なモデルと同等です。以下で説明するように、これはカウントデータの場合のポアソンGLMに当てはまります。
質問で述べたように、統計のほとんどのアプリケーションでは、少なくとも最初の2つの瞬間が自由に変化することを許可する分布形式を使用することが標準的な方法です。これにより、モデルが人為的に制約するのではなく、適合モデルでデータが推定された平均と分散を決定できるようになります。この2番目のパラメーターを使用すると、モデル内の1つの自由度のみが失われます。これは、データから分散を推定できる利点と比較すると、わずかな損失です。もちろん、この推論を拡張して、歪度の適合を可能にする3番目のパラメーター、尖度の適合を可能にする4番目のパラメーターなどを追加できます。
いくつかの非常に小さな例外はありますが、ポアソンGLMは悪いモデルです。私の経験では、ポアソン分布をフィッティングしてデータをカウントすることは、ほとんど常に悪い考えです。カウントデータの場合、データの分散がポアソン分布に対して「過度に分散」することは非常に一般的です。理論がポアソン分布を指している場合でも、多くの場合、最良のモデルはポアソン分布の混合であり、分散が自由パラメーターになります。実際、カウントデータの場合、負の二項分布は、速度パラメーターのガンマ分布をもつポアソン混合です。、したがって、ポアソン分布のプロセスに従ってカウントが到着すると考える理論的な理由がある場合でも、「過剰分散」があり、負の二項分布がはるかによく適合する場合がよくあります。
データをカウントするためにポアソンGLMを適合させてから、「過剰分散」をチェックするための統計的テストを行う慣行は時代錯誤であり、良い慣行となることはほとんどありません。統計分析の他の形式では、2パラメーター分布から始めず、分散制限を任意に選択してから、この制限をテストして分布からパラメーターを削除しようとします。このように物事を行うことにより、モデル選択に使用される最初の仮説検定と実際のモデル(ポアソンまたはより広い分布)で構成される、厄介なハイブリッド手順を実際に作成します。初期のモデル選択テストからハイブリッドモデルを作成するこの種のプラクティスは、全体的なモデルの品質を低下させることが多くのコンテキストで示されています。
類似のハイブリッド手法が使用されている類似の状況は、平均差のT検定にあります。以前は、統計コースで最初にLeveneのテスト(または、かなり単純な「経験則」)を使用して2つの母集団間の分散が等しいかどうかをチェックし、データがこのテストに「合格」した場合、等分散を想定したスチューデントT検定を使用し、データが検定に「失敗」した場合は、代わりにウェルチのT検定を使用します。これは実際には本当に悪い手順です(たとえば、こことここを参照してください)。予備の仮説検定を組み合わせてモデルを選択するための厄介な複合検定を作成するよりも、分散を仮定しない後者の検定を使用する方がはるかに優れています。
カウントデータの場合、通常、負の二項モデルまたは準ポアソンモデルなどの2パラメーターモデルを近似することにより、良好な初期結果が得られます。(後者は実際の分布ではないことに注意してください。しかし、それでも合理的な2パラメーターモデルを提供します。)さらに一般化が必要な場合は、通常、ゼロインフレの追加であり、過剰な数のゼロがあります。データ内。ポアソンGLMに制限することは、人為的で無意味なモデル選択であり、過剰分散のテストではそれほど改善されません。
さて、ここに小さな例外があります:上記に対する唯一の本当の例外は2つの状況です:
(1)1つのパラメーター分布の仮定が満たされていると信じる先験的な理論的理由が非常に強く、分析の一部はデータに対してこの理論モデルをテストすることです。または
(2)何らかの他の(奇妙な)理由で、分析の目的はデータの分散について仮説検定を行うことなので、この分散をこの仮説の制限に実際に制限してから、この仮説を検定します。
これらの状況は非常にまれです。これらは、データ生成メカニズムに関する先験的な理論的知識がある場合にのみ発生する傾向があり、分析の目的はこの基礎となる理論をテストすることです。これは、厳密に制御された条件下(物理学など)でデータが生成される非常に限られた範囲のアプリケーションの場合です。