注:ケースはn >> pです
統計学習の要素を読んでいますが、相互検証を行う「正しい」方法についてさまざまな言及があります(60ページ、245ページなど)。具体的には、私の質問は、モデル検索が行われたときに、k分割CVまたはブートストラップを使用して最終モデルを評価する方法です(個別のテストセットなし)。ほとんどの場合(組み込み機能選択なしのMLアルゴリズム)、
- 機能選択ステップ
- メタパラメーターの選択手順(SVMのコストパラメーターなど)。
私の質問:
- トレーニングセット全体で機能の選択を行い、脇に置いて、機能の選択手順を実行できることを確認しました。次に、kフォールドCVを使用して、特徴選択アルゴリズムが各フォールドで使用され(場合によっては毎回選択される異なる特徴を取得)、エラーが平均化されます。次に、すべてのデータ(確保された)を使用して選択された機能を使用して最終モードをトレーニングしますが、クロス検証からのエラーをモデルの将来のパフォーマンスの推定値として使用します。これは正しいです?
- クロス検証を使用してモデルパラメーターを選択する場合、モデルのパフォーマンスを後で推定する方法は?上記の#1と同じプロセスですか、54ページ(pdf)または他の何かに示されているようなネストされたCVを使用する必要がありますか?
- 両方のステップ(機能とパラメーターの設定)を実行しているとき.....その後、何をしますか?複雑なネストされたループ?
- 別のホールドアウトサンプルがある場合、懸念はなくなり、クロス検証を使用して機能とパラメーターを選択できます(パフォーマンスの見積もりはホールドアウトセットから取得されるため、心配する必要はありません)?