アルゴリズムは次のとおりです。k=使用されるトレーニングポイントの数を含むk最近傍アルゴリズム。これをjms-k-nearest-neighborと定義します。
VCディメンションは、トレーニングエラー 0のアルゴリズムによって粉砕できるトレーニングポイントの最大数であるため、jms-k-nearest-neighborのVCディメンションはkまたは0のみです。
1トレーニングインスタンス=> k = 1:トレーニング中、jms-1-nearest-neighborはこのインスタンスを正確に格納します。まったく同じトレーニングセットでの適用中、1つのインスタンスは格納されているトレーニングインスタンスに最も近いため(同じであるため)、トレーニングエラーは0です。
だから私は同意する、VCの次元は少なくとも1です。
2つのトレーニングインスタンス=> k = 2:ラベルが異なる場合にのみ問題が発生する可能性があります。この場合の問題は、クラスラベルの決定がどのように行われるかです。多数決では結果は得られません(VC = 0?)。距離で逆重み付けされた多数決を使用すると、VC次元は2になります(同じトレーニングインスタンスを異なるラベルで2回持つことはできないと仮定すると、すべてのアルゴリズムのVC次元が0になる場合(私は推測します)。
標準のk最近傍アルゴリズムはありません。実装の詳細については、基本的な考え方は同じですが、フレーバーが異なるファミリーです。
使用されるリソース:Andrew MooreによるVCディメンションスライド