k分割CVを使用して回帰モデルから選択する場合、通常、モデルごとにCVエラーを標準エラーSEと一緒に計算し、CVエラーが最も低いモデルの1 SE内で最も単純なモデルを選択します(1標準エラールール。たとえば、こちらを参照してください)。ただし、最近、この方法で変動性を過大評価していること、および2つのモデルAとBの間で選択する特定のケースでは、実際には別の方法で進める必要があると言われました。
- 長さ各フォールドについて、2つのモデル予測間の点ごとの差を計算します。、フォールドの平均二乗差
- 通常どおり、フォールド全体の平均を使用し、このCV差エラーを(その標準エラーと共に)汎化エラーの推定値として使用します。
質問:
- これはあなたにとって意味がありますか?CVエラーを汎化エラーの推定値として使用することには、理論的な理由があることはわかっています(これらの理由はわかりませんが、存在することはわかっています!)。この「差」CVエラーの使用の背後に理論的な理由があるかどうかはわかりません。
- これを3つ以上のモデルの比較に一般化できるかどうかはわかりません。モデルのすべてのペアの違いを計算するのは危険に思われます(複数の比較?):3つ以上のモデルがある場合はどうしますか?
編集:私の数式は完全に間違っています、正しいメトリックがここに記載されており、はるかに複雑です。まあ、盲目的に式を適用する前にここで私が尋ねたのは嬉しいです!@Bayが彼の明快な答えで理解を助けてくれたことに感謝します。説明されている正しい測定は非常に実験的なものなので、信頼できる主力のCVエラーに固執します。