質問に正確に答えることは非常に困難ですが、私には、同じ情報を提供しない2つの基準(情報基準とp値)を比較しているようです。すべての情報基準(AIC、またはシュワルツ基準)については、それらが小さければ小さいほど、モデルの適合度が高くなります(統計的観点から)。それらは、適合度の欠如とモデルのパラメーター数とのトレードオフを反映しているためです; 例えば、赤池基準は、読み出し、K− 2 ログ(ℓ )+ 2 kkパラメータの数です。ただし、AICとは異なり、SCは一貫しています。サンプルサイズが大きくなると、より大きなモデルを誤って選択する確率が0に収束します。これらはモデルの比較に使用されますが、適合度が低い(残留偏差が大きい)重要な予測子を持つモデルをよく観察できます。より低いAICで別のモデルを実現できる場合、これは貧弱なモデルを示唆しています。また、サンプルサイズが大きい場合は、p値は依然として低くなる可能性があり、モデルの適合に関する多くの情報が得られません。少なくとも、モデルを切片のみと比較し、モデルを共変量と比較したときにAICが大幅に減少するかどうかを確認します。ただし、予測子の最適なサブセットを見つけることに関心がある場合、変数選択の方法を明確に検討する必要があります。
過剰適合の問題を回避するために変数選択を実行できるペナルティ回帰を検討することをお勧めします。これについては、フランク・ハレルの回帰モデリング戦略(p。207 ff。)、またはMoons等、過オプティミズムの診断および予後予測モデルを直接調整するペナルティ付き最尤推定:臨床例、J Clin Epid(2004)57( 12)。
Design(lrm
)およびstepPlr(step.plr
)Rパッケージ、またはペナルティパッケージも参照してください。このSEの変数選択に関する関連質問を参照できます。