[編集21.7.15 8:31 AM CEST]
分類にRFを使用したと思います。この場合、アルゴリズムは1つのターゲットクラスのみの純粋なターミナルノードを持つ完全に成長したツリーを生成するためです。
predict(model, data=X_train)
このコーディング行は、犬が自分の尻尾を追いかけるようなものです。トレーニングサンプルの予測は、トレーニングサンプル自体のクラスです。回帰の場合、ノードに含まれるサンプルが5個以下の場合、またはノードが純粋な場合、RFは停止します。この場合、予測誤差は小さくなりますが、0%ではありません。
機械学習では、しばしば大きな仮説空間で作業します。これは、トレーニングセットのデータ構造に対する仮説/説明/モデルがまだ改ざんされていないことが常に多いことを意味します。古典的な統計では、仮説空間はしばしば小さいため、いくつかの仮定された確率理論に応じて直接モデル適合は有益です。機械学習では、直接的な適合性の欠如はバイアスに関連していますかはモデルのます。バイアスは、モデルの「非柔軟性」です。しませんとにかく一般化力(新しいイベントを予測する能力)の近似値を提供します。アルゴリズムモデルの場合、理論は定式化されていないため、交差検定は一般化力を近似する最適なツールです。ただし、独立サンプリングのモデルの前提条件が満たされない場合、うまく実行された相互検証が別の方法で提案された場合でも、モデルはとにかく役に立たない可能性があります。最後に、最も強力な証拠は、さまざまな起源の多数の外部テストセットを満足のいくように予測することです。
CVに戻る:多くの場合、Out-of-bagは受け入れられているCVタイプです。私は個人的に、OOB-CVが5-fold-CVと同様の結果を提供すると思いますが、これは非常に小さな迷惑です。たとえば、RFとSVMを比較する場合、通常OVM-CVはSVMの袋詰めを避けるため有用ではありません。その代わりに、SVMとRFの両方がまったく同じクロス検証スキームに埋め込まれます。たとえば、各繰り返しに対してパーティションが一致する10倍10繰り返しです。多くの場合、機能エンジニアリングの手順も相互検証する必要があります。物事をきれいに保つために、データパイプライン全体をCVに埋め込むことができます。
テストセット(または交差検証)でモデルを調整すると、仮説空間が再び膨らみ、検証された予測パフォーマンスは楽観的になりすぎる可能性があります。代わりに、調整するためのキャリブレーションセット(またはキャリブレーションCVループ)と、最終的な最適なモデルを評価するための検証セット(または検証CVループ)が必要です。
極端な意味では、検証結果は、この結果を目にして行動しない場合にのみ偏りがありません。これは検証のパラドックスです。なぜあなたがそれに基づいて行動しなかった場合にのみ真実である知識を得るのでしょうか。実際には、コミュニティはある種の出版バイアスを喜んで受け入れます。ランダムに過剰に楽観的な検証を得た研究者は、不幸にも過悲的に検証を行った研究者よりも出版する可能性が高くなります。そのため、他のモデルを再現できない場合があります。