分類器のパフォーマンスにアクセスするには、データをトレーニング/テストセットに分割する必要があることを知っています。しかし、これを読んで:
SVM用に手動で設定する必要があるC設定など、推定器のさまざまな設定(「ハイパーパラメーター」)を評価する場合、推定器が最適に実行されるまでパラメーターを微調整できるため、テストセットでオーバーフィットするリスクが依然としてあります。この方法では、テストセットに関する知識がモデルに「漏れ」、評価メトリックが一般化パフォーマンスについてレポートしなくなります。この問題を解決するために、データセットのさらに別の部分をいわゆる「検証セット」として保持することができます。トレーニングはトレーニングセットで進行し、その後検証セットで評価が行われ、実験が成功したと思われる場合、テストセットで最終評価を行うことができます。
ハイパーパラメーターの調整中にテストセットをオーバーフィットすることで正当化される、別の(3番目の)検証セットが導入されていることがわかります。
問題は、この過剰適合がどのように表示されるかを理解できないため、3番目のセットの正当性を理解できないことです。