人々はソフトマージンSVMはヒンジ損失関数を使用すると言います:。ただし、ソフトマージンSVMが最小化しようとする実際の目的関数は、 \ frac {1} {2} \ | w \ | ^ 2 + C \ sum_i \ max(0,1-y_i(w ^ \ intercal x_i + b)です。 ) 一部の著者は、\ | w \ | ^ 2項正則化および\ max(0,1-y_i(w ^ \ intercal x_i + b))項損失関数を呼び出します。
ただし、ハードマージンSVMの場合、目的関数全体はちょうど
まあ、あれば、この場合の損失関数である、我々は二次損失関数を呼び出すことができますか?もしそうなら、なぜハードマージンSVMの損失関数はソフトマージンSVMで正則化され、二次損失からヒンジ損失に変化するのですか?