SVMとロジスティック回帰の違い


11

私は読んでいてSVM、カーネル化されSVMsていないのは線形セパレータにすぎないという点に直面しました。したがって、SVM境界とロジスティック回帰の唯一の違いは、境界を選択する基準ですか?

どうやら、SVM最大マージン分類子を選択し、ロジスティック回帰はcross-entropy損失を最小化するものです。SVM ロジスティック回帰またはその逆のパフォーマンスが向上する状況はありますか?

回答:


11

ロジスティック回帰とcross-entropyコスト関数を使用すると、形状は凸状になり、最小値は1つになります。ただし、最適化中に、最適点に近く、正確に最適点ではない重みが見つかることがあります。これは、エラーを減らす複数の分類を使用できることを意味し、トレーニングデータの場合はそれをゼロに設定できますが、重みはわずかに異なります。これにより、さまざまな決定の境界が生じる可能性があります。このアプローチは、統計的手法に基づいています。次の図に示すように、重みをわずかに変更するだけでさまざまな決定境界を設定でき、トレーニング例ではすべてのエラーの誤差がゼロになります。

ロジスティック回帰決定の境界

SVMテストデータのエラーのリスクを軽減する決定境界を見つける試みは何ですか。両方のクラスの境界点から同じ距離にある決定境界を見つけようとします。その結果、両方のクラスは、そこにデータがない空のスペースに対して同じスペースを持ちます。SVMされている幾何学的に統計的ではなく動機

ここに画像の説明を入力してください

カーネル化されたSVMは、線形セパレータにすぎません。したがって、SVMとロジスティック回帰の唯一の違いは、境界を選択するための基準ですか?

これらは線形セパレータであり、決定境界が超平面である可能性があることがわかったSVM場合は、テストデータのエラーのリスクを減らすためにを使用することをお勧めします。

どうやらSVMは最大マージン分類子とロジスティック回帰を選択して、クロスエントロピー損失を最小限に抑えます。

はい、述べられているように、統計的アプローチに基づいてSVMいる一方で、データの幾何学的特性にlogistic regression基づいています。

この場合、SVMがロジスティック回帰よりもパフォーマンスが優れている状況、またはその逆の状況はありますか?

表面上、彼らの結果はそれほど変わらないが、彼らは違う。SVMsが一般化のために優れている12


2

ロジスティック回帰は、線形SVMが行うように、クラス境界自体を見つけることを試みていません。LRは、予測子を使用してロジット変換されたyスコアをモデル化しようとします。ばかげた類推を使用するために、LRは「点を介して」関数を配置しようとしますが、SVMは「点の間に」サポートベクトルを配置しようとします

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.