ハードSVMについて話していて、2つのクラスが線形に分離可能である場合、あなたは正しいです。LRは、2つのクラスを分離するソリューションを見つけます。ハードSVMは、すべての可能なものの中から最大のマージンを持つ「その」ソリューションを見つけます。
ソフトSVMとクラスが線形分離可能でない場合、わずかな変更を加えるだけで十分です。エラーがゼロになることはありません。LRは、エラーの最小化に対応する超平面を見つけます。Soft SVMは、エラー(別のエラー)を最小化すると同時に、正則化パラメーターを介してそのエラーとマージンをトレードオフします。
2つの違いの1つは、SVMはハードな分類器ですが、LRは確率的な分類器です。SVMはまばらです。2つのクラス間で最も識別力のあるサポートベクトル(トレーニングサンプルから)を選択します。テスト時にそれ以外のトレーニングポイントを保持しないため、2つのクラスのいずれについても分布についてはわかりません。
2つのクラスの線形分離可能性の場合にLRソリューション(IRLSを使用)がどのように壊れるか、およびそのような場合に確率的分類器でなくなる理由を説明しました:https : //stats.stackexchange.com/a/133292/66491