SVMのラグランジュ乗数がスパースなのはなぜですか?


8

Maximal Margin Classifier SVMでは、二重問題を解決した後、ほとんどのラグランジュ乗数がゼロになることがわかりました。サポートベクトルに対応するものだけが正であることがわかります。

何故ですか?


1
サポートベクタマシンに関するWikipediaの記事は、非ゼロのラグランジュ乗数がマージン上のポイントに対応することを指摘することでこれに答えています。
whuber

回答:


4

SVMのコンテキストでのラグランジュ乗数は、通常表されます。ほとんどのがKarush-Kuhn-Tucker(KKT)の二重相補性条件の直接の結果であることがしばしば観察されるという事実:αα=0

ここに画像の説明を入力してください

以来 IFF SVMの決定境界上にある、すなわち、仮定サポートベクトルででありますwhuberがコメントで指摘したように、トレーニングセット、およびほとんどの場合、ほとんどのトレーニングベクトルはサポートベクトルです。これは、ほとんどのが0またはであることを意味します。ywTバツ+b=1バツバツαC


Andrew NgのCSVMに関するCS229講義ノートでは、Karush-Kuhn-Tucker(KKT)の二重相補性条件を紹介しています。

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

トレーニングセット内のすべてのベクターがサポートベクターであるケースを作成できることに注意してください。たとえば、このサポートベクターマシンの質問を参照してください。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.