重回帰を行う場合、なぜ後方消去が正当化されるのですか?


9

オーバーフィットになりませんか?分析の一部としてジャックナイフまたはブートストラップ手順を追加した場合、私の結果はより信頼できるでしょうか?


8
それが正当化されていると誰が言うのですか?もちろん、それは過剰適合につながるはずです。
ガン-モニカの復活

2
それは実際に多くの本(まだ?)で提案されています(例:amazon.com/Statistics-Explained-Introductory-Guide-Scientists/…)。同じことを自分で考えています。重回帰を導入するとき、私は少なくとも3〜4冊の統計本を持っていると思います。
mmh 2015年

5
正直なところ、統計の入門書で過剰適合と過剰試験について説明されていない場合は、別の本を読みます。
マシューDrury

3
機能選択基準として1回限りの相互検証(たとえばPRESS)を使用する場合、逆方向除去(および順方向選択)は依然として適合しすぎる傾向があります。
Dikran Marsupial

5
@mmhは入門ではありませんが、フランクハレルの回帰モデリング戦略の第4章を読むことを強くお勧めします(まあ、第4章は読む価値があるだけではありませんが、この部分は特にこの議論に関連しています)。
Glen_b-2015

回答:


2

モデルの作成とテストは異なるものだと思います。後方削除はモデル構築の一部です。ジャックナイフとブートストラップを使用してテストします。

ブートストラップとジャックナイフを使用すると、単純な後方排除よりも信頼できる見積もりを確実に得ることができます。しかし、もしあなたが本当にオーバーフィッティングをテストしたいのなら、究極のテストは分割サンプルであり、いくつかを訓練し、他をテストすることです。この目的には、Leave-one-outが不安定すぎる/信頼性が低い:http : //www.russpoldrack.org/2012/12/the-perils-of-leave-one-out.html

モデルのロバスト性をより安定して推定するには、被験者の少なくとも10%が外出する必要があると思います。そして、あなたが20科目を持っている場合、2科目はまだ非常に少ないです。しかし、問題は、残りの母集団に適用できるモデルを構築するのに十分な大きさのサンプルがあるかどうかです。

それが少なくとも部分的にあなたの質問に答えたことを願っています。


k<nk<<n

統計的学習の入門第6章の第5章(バリデーションセット、グループ数の異なる相互検証、ブートストラップ)をリサンプリングに異なるアプローチを説明し、機種選定
EDM
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.