2
PythonでのSVMのラグランジュ係数の計算
Pythonで完全なSVM実装を記述しようとしていますが、ラグランジュ係数の計算にいくつか問題があります。 最初に、アルゴリズムから理解したことを言い換えて、正しいパスにいることを確認します。 もしバツ1、x2、。。。、xんバツ1、バツ2、。。。、バツんx_1, x_2, ..., x_n、データセットでありy私∈ { - 1 、1 }y私∈{−1、1}y_i \in \{-1, 1\}のクラスラベルであるバツ私バツ私x_i次いで、∀ 私は、Y私(wTバツ私+ B )≥ 1∀私、y私(wTバツ私+b)≥1\forall i, y_i(w^Tx_i + b) \geq 1 したがって、最適化問題を解決して ∥ ワット∥2‖w‖2\|w\|^2 対象y私(wTバツ私+ B )≥ 1y私(wTバツ私+b)≥1y_i(w^Tx_i + b) \geq 1 ラグランジュ係数に関して、これは、およびおよび最小化することをます:B α = (α 1、α 2、。。。α N)≠ 0 ≥ 0 L (α 、W 、B )= …