5x2相互検証について、ネストされた相互検証の特別なケースとして話している人がよくいます。
最初の数(ここでは:5)は内側のループの折り目の数を指し、2番目の数(ここでは:2)は外側のループの折り目の数を指していると思いますか?では、これは「従来の」モデルの選択と評価のアプローチとどう違うのでしょうか。「伝統的」とは
- データセットを個別のトレーニング(80%など)とテストセットに分割する
- トレーニングセットでのハイパーパラメーター調整とモデル選択にk分割交差検証(たとえば、k = 10)を使用する
- テストセットを使用して、選択したモデルの汎化性能を評価する
5 = 2は、k = 2の場合にテストとトレーニングセットのサイズが等しいことを除いて、まったく同じではありませんか?
1
あなたは正しいです、この場合、それは同じですが、80/20の代わりに外側のループで50/50の分割を使用します。一般的に、これは一般化のパフォーマンスをより適切に推定するため、特にサンプルサイズが比較的小さい場合に推奨されます。私の経験から、ネストされたCVの場合でも、パフォーマンスの見積もりは大きく異なります。一般化されたパフォーマンスの適切な見積もりを取得するには、ネストされたCVを複数回実行する方がよい場合がよくあります。
—
ジョージ
一般に、5x2のネストされたCVを実行する代わりに、通常、k = 5または10で(k-1)xkを実行します。サンプル数が少ない場合は、フォールドの数を増やす代わりに、kの値を小さくします。
—
ジョージ
私はあなたがそれを完全に間違っているのではなく逆に持っていたと思いますが、受け入れられた答えは私が参照しようとしている出典と一致しないかもしれません。RaschkaによるPython Machine Learningでは、「特定のタイプのネストされたクロス検証は5x2クロス検証とも呼ばれます」と言及しています。2がハイパーパラメータチューニングの内側のループを指し、5が不偏モデルパフォーマンス推定の外側のループを指していることを示すグラフィックが含まれています。グラフィックのカラーコピーは、シナリオ3の以下の場所にあります:sebastianraschka.com/faq/docs/evaluate-a-model.html
—
Austin