VCディメンションが重要なのはなぜですか?


11

ウィキペディアは言う:

VCディメンションは、アルゴリズムが粉砕できる最大のポイントセットのカーディナリティです。

たとえば、線形分類子のカーディナリティはn + 1です。私の質問は、なぜ私たちは気にするのですか?線形分類を行うほとんどのデータセットは非常に大きくなる傾向があり、多くのポイントが含まれています。

回答:


4

VCディメンションとは

@CPerkinsで言及されているように、VCディメンションはモデルの複雑さの尺度です。また、ウィキペディアのように、データポイントを粉砕する機能に関しても定義できます。

基本的な問題

  • 目に見えないデータを適切に一般化するモデル(たとえば、何らかの分類子)が必要です。
  • サンプルデータは特定の量に制限されています。

S1Skh

バイアスと分散のトレードオフ

画像は、VCディメンションが高いほど経験的リスクが低くなること(モデルがサンプルデータで発生するエラー)を許容することを示していますが、信頼区間も高くなっています。この間隔は、モデルの一般化能力の信頼性と見なすことができます。

低VC寸法(高バイアス)

複雑さの低いモデルを使用する場合、データセットに関するある種の仮定(バイアス)を導入します。たとえば、線形分類子を使用する場合、データは線形モデルで記述できると想定します。これが当てはまらない場合、与えられた問題は、たとえば問題が非線形の性質であるため、線形モデルでは解決できません。データの構造を学習できない、パフォーマンスの悪いモデルになってしまいます。したがって、強いバイアスを導入しないようにする必要があります。

高いVCディメンション(より大きな信頼区間)

X軸の反対側には、一般的な基本構造、つまりモデルのオーバーフィットを学習するのではなく、データを記憶するほどの大きな能力を持つ、より複雑なモデルが表示されます。この問題を認識した後は、複雑なモデルを避ける必要があるようです。

バイアスを導入しない、つまりVCディメンションを低くする必要があるが、VCディメンションを高くしないようにする必要があるため、これは物議を醸すように思えるかもしれません。この問題は統計学習理論に深く根ざしており、バイアス分散トレードオフとして知られています。この状況で私たちがすべきことは、必要に応じてできるだけ単純化することです。そのため、同じ経験的エラーに終わる2つのモデルを比較するときは、それほど複雑ではないモデルを使用する必要があります。

VCディメンションのアイデアの背後にあることをもっとお見せできればと思います。


1

N

VC

NNlog2(N)情報のビット-ソートされた配列のバイナリ検索問題と同様。

NxND={(x1,y1),(x2,y2),...,(xl,yl)}xixiNxiϵϵ1δ(ϵ,δ)log2N/δϵ

Nϵ1δlog2N/δϵ2

log2N

ϵ1δϵ

ここに画像の説明を入力してください

___________________両方の線(関数)が同じ成功でポイントを分類します___________________

VClog2NVCVClog(δ)ϵVClog(δ)ϵ2

VCϵ1δ


0

VCディメンションは、モデルの複雑さの尺度です。たとえば、VCディメンションがDvcの場合、モデルの複雑さを考えると、経験則として、n = 10xDvcデータポイントが必要です。

これを使用して、テストエラーの上限を作成することもできます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.