カーネルロジスティック回帰とSVM


32

すべての人に知られているように、SVMはカーネルメソッドを使用して、より高いスペースにデータポイントを投影し、ポイントを線形スペースで区切ることができます。しかし、ロジスティック回帰を使用してカーネル空間でこの境界を選択することもできます。SVMの利点は何ですか?SVMは予測時にこれらのサポートベクトルのみが寄与するスパースモデルを使用するため、SVMの予測が高速化されますか?


1
Hastieのスライドはあなたが探しているものです
Yiboヤン

回答:


28

KLRおよびSVM

  1. 分類のパフォーマンスはどちらの場合もほぼ同じです。
  2. KLRはクラス確率を提供できますが、SVMは決定論的な分類器です。
  3. KLRにはマルチクラス分類への自然な拡張がありますが、SVMには、マルチクラス分類に拡張する複数の方法があります(そして、他のものよりも確かに優れた品質を持っているバージョンがあるかどうかはまだ研究分野です)。
  4. KLRには、驚くほどまたは驚くことなく、SVMが享受する最適なマージンプロパティもあります(少なくとも制限は十分です)。

上記を見ると、カーネルロジスティック回帰が使用すべきもののように思えます。ただし、SVMにはいくつかの利点があります

  1. ON3ON2kk
  2. SVMの分類器は、サポートベクトルに関してのみ定義されるように設計されていますが、KLRでは、分類器はサポートベクトルだけでなくすべてのポイントにわたって定義されます。これにより、SVMは、KLRで達成するのが難しい自然な高速化(効率的なコード記述の観点から)を享受できます。

7
+1ただし、計算の複雑さが問題になる場合は、学習セットまたはその他のアプローチでの正規化された損失を最小限に抑えるために基底ベクトルを貪欲に選択することにより、スパースカーネルロジスティック回帰モデルを構築することはそれほど難しくありません。たとえば、「有益なベクターマシン」に関する論文を参照してください。
ディクランマースピアル

4
また、SVMのカーネルと正則化パラメーターを最適化すると、ほとんどすべてのデータがサポートベクトルであるモデルになります。SVMのスパース性は幸せな事故です。他の方法でスパース性を高めることは一般に可能であるため、この手法のセールスポイントとしてはあまりよくありません。
ディクランマースピアル

1
@DikranMarsupial有益なベクターマシンへのポインターをありがとう。スパースKLRのいくつかの作品を知っていますが、これまでのところ、大規模なデータセットにうまく対応できるとは思いません。どちらの方法でも、libSVMやSVM LightのようなユーザーフレンドリーなスパースKLRの適切な実装をリリースすることは、その採用に大いに役立ちます。そのような実装が既に存在する場合の謝罪は、しかし、私は、任意のを認識していないです(編集:私はあなたの代わりに「参考ベクターマシン」の「インポートベクターマシン」を意味だと思う?)。
TenaliRaman

2
すべてのデータポイントをサポートベクトルとして使用している場合、過剰適合です。これはRBFで何度も発生します。実際、SVMのユーザーとして私が学んだ基本的なことの1つは、まずサポートベクトルとして選択されたポイントの一部をチェックすることです。データの30%を超える場合は、そのモデルを完全に拒否します。
テナリラマン

3
SVであるすべてのデータポイントが過剰適合を意味することは正しくありません。Cの値が小さい場合、スラック変数に対するペナルティはほとんどありません。非常に当たり障りのない分類器(トレーニングセットで多くのエラーを発生させます)を使用でき、マージンが非常に広いため、すべてのデータがサポートベクトルになります。非スパースモデルを拒否することは、一般的なパフォーマンスが最高のSVMが非スパースである場合があるため、経験則ではありません。SVの数は、leave-one-outエラーの上限ですが、実際には非常に多くの場合、実際には失われます。
ディクランマースピアル

15

この問題に対する私の見解は次のとおりです。

SVMは分類を行う非常にエレガントな方法です。いくつかの素晴らしい理論、いくつかの美しい数学があり、それらはうまく一般化されており、遅すぎることもありません。しかし、回帰のためにそれらを使用しようとすると、面倒になります。

  • SVM回帰に関するリソースを次に示します。ひねりを加える追加パラメータと、最適化アルゴリズムに関する詳細な説明に注目してください。

Gaussian Process Regressionには多くのカーネルの数学があり、回帰に最適です。繰り返しますが、非常にエレガントで、遅すぎません。それらを分類に使用してみてください、それはかなり気味悪い感じを始めます。

  • これは、回帰に関するGPブックのです。

  • ここに章があります分類上では比較のために、。いくつかの複雑な近似または反復法で終わることに注意してください。

ただし、GPを分類に使用する利点の1つは、単純なyes / no分類ではなく、予測分布を提供することです。


2
+1 GPはKLRに代わる優れた選択肢です(ただし、モデルの仕様が間違っているとエビデンスに基づいたモデル選択が非常に簡単に失敗する可能性があるため、KLRの方がパフォーマンスが向上することがよくあります)。
ディクランマースピアル

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.