すべての統計的手順がトレーニング/テストデータに分割されるわけではなく、「クロス検証」とも呼ばれます(手順全体にはそれより少し多いだけですが)。
むしろ、これはサンプル外誤差を推定するために特に使用される手法です。つまり、モデルは新しいデータセットを使用して新しい結果をどの程度適切に予測しますか?これは、たとえば、データセット内のサンプル数に比べて非常に多数の予測子がある場合に非常に重要な問題になります。このような場合、サンプル内エラーは大きいがサンプル外エラーはひどいモデル(「オーバーフィッティング」と呼ばれます)を構築するのは本当に簡単です。多数の予測子と多数のサンプルの両方がある場合、交差検証は、新しいデータを予測するときにモデルがどのように動作するかを評価するために必要なツールです。また、競合する予測モデルを選択する際の重要なツールです。
別の注記では、予測モデルを構築しようとする場合、ほとんどの場合交差検定が使用されます。一般に、いくつかの治療の効果を推定しようとする場合、モデルにはあまり役に立ちません。たとえば、材料AとBの引張強さの分布を比較している場合(「処理」は材料タイプです)、相互検証は必要ありません。治療効果の推定値がサンプルから一般化することを期待していますが、ほとんどの問題では、古典的統計理論がこれ(つまり、推定値の「標準誤差」)に対して交差検定よりも正確に答えることができます。残念ながら、古典的な統計手法1標準誤差の場合、過剰適合の場合は保持されません。その場合、交差検証は多くの場合、はるかに優れています。
一方、10万回の観測に基づいて機械学習モデルに投入した10,000個の測定変数に基づいて材料が壊れる時期を予測しようとすると、相互検証なしで優れたモデルを構築するのに多くの問題が発生します。
多くの物理実験が行われていると思いますが、一般的には効果の推定に興味があります。これらの場合、交差検証の必要性はほとんどありません。
1有益な事前分布を使用するベイズ法は、過剰適合に対処する古典的な統計手法であると主張することができます。しかし、それは別の議論です。
補足:相互検証は統計文献に最初に登場し、統計学者と呼ばれる人々によって確実に使用されていますが、それは機械学習コミュニティーで必須の必須ツールになっています。統計モデルの多くは、クロスバリデーションを使用せずにうまく動作しますが、「予測モデルを機械学習」とみなされ、ほぼすべてのモデルには、必要がクロスバリデーションを、彼らはしばしばクロスせずに行うことはほとんど不可能であるチューニングパラメータの選択を必要とします-検証。