@AmiTavoryの意見と統計的学習の要素とでこの質問が異なることを願います。
サンプルサイズが非常に小さい応用フィールドから来た私は、教師なしの前処理ステップでも深刻なバイアスが発生する可能性があるという経験を持っています。
私の分野では、分類器がトレーニングされる前に、次元削減のために最も頻繁にPCAになります。ここではデータを表示できませんが、PCA +(クロス検証されたLDA)とクロス検証された(PCA + LDA)は、エラー率を約1桁低く見積もっていました。(これは通常、PCAが安定していないことを示す指標です。)
要素の「不当な利点」については、汚染+テストケースの分散を調べると、トレーニングケースとテストケースの両方で機能する機能が得られます。したがって、ここでは、楽観的な偏見の原因である自己実現預言を作成します。適度に快適なサンプルサイズがある場合、このバイアスは低くなります。
したがって、要素よりも少し保守的なアプローチをお勧めします。
- 複数のケースを考慮した前処理計算を検証に含める必要があります。つまり、それらはそれぞれのトレーニングセットでのみ計算されます(その後、テストデータに適用されます)。
- 各ケースを独自に検討する前処理ステップ(私はスペクトロスコピストです:例はベースライン補正と強度正規化であり、これは行ごとの正規化です)は、それらが最初のステップの前である限り、相互検証から除外できます。複数のケースについて計算します。
そうは言っても、クロスバリエーションは適切な検証研究を行うためのショートカットにすぎません。したがって、実用性について議論することができます。
問題の前処理で安定した結果が得られるかどうかを確認できます(たとえば、相互検証によってそれを行うことができます)。低いサンプルサイズですでに完全に安定していることがわかった場合、IMHOは、相互検証からそれを引き出すことにより、あまりバイアスが導入されないと主張するかもしれません。
ただし、以前の監督者を引用すると:計算時間は科学的な議論ではありません。
私はしばしば、クロス検証のために数回のフォールドと数回の反復の「スニークプレビュー」を行って、すべてのコード(結果の要約/グラフを含む)を確認し、それを一晩または週末などサーバーに残して、よりきめの細かい相互検証。