私のSVMの理解は、それがロジスティック回帰(LR)に非常に似ていることです。つまり、特徴の重み付けされた合計がクラスに属する確率を得るためにシグモイド関数に渡されますが、クロスエントロピー(ロジスティック)損失ではありません。関数、ヒンジ損失を使用してトレーニングが実行されます。ヒンジ損失を使用する利点は、カーネル化をより効率的にするために、さまざまな数値トリックを実行できることです。ただし、欠点は、結果のモデルの情報が、対応するLRモデルの情報よりも少ないことです。そのため、例えば、(線形カーネルを使用して)kernelisationずにSVMの決定境界はまだLRう出力0.5の確率と同じ場所になり、しかし 1は、クラスに属する確率が離れてからの減衰どのように迅速に伝えることはできません決定境界。
私の2つの質問は次のとおりです。
- 上記の私の解釈は正しいですか?
- ヒンジ損失を使用すると、SVMの結果を確率として解釈することが無効になりますか?