デュアル最適化が数値最適化の観点から魅力的である理由の1つを次に示します。詳細については、次のペーパーを参照してください。
Hsieh、C.-J.、Chang、K.-W.、Lin、C.-J.、Keerthi、SS、and Sundararajan、S.、「大規模線形SVMのデュアル座標降下法」、Proceedings of the第25回機械学習に関する国際会議、ヘルシンキ、2008年。
二重定式化には、単一のアフィン等式制約とn個の境界制約が含まれます。
1.アフィン等式制約は、二重定式化から「排除」できます。
これは、R ^(d + 1)にR ^ dを埋め込むことで、R ^(d + 1)のデータを見るだけで、各データポイントに単一の "1"座標を追加することで、R ^ d ----> R ^(d + 1):(a1、...、ad)| --->(a1、...、ad、1)。
トレーニングセットのすべてのポイントに対してこれを行うと、R ^(d + 1)の線形分離性問題が再生成され、分類器から定数項w0が削除され、双対からアフィン等式制約が削除されます。
2.ポイント1により、双対は、制約が束縛制約のみである凸二次最適化問題として簡単にキャストできます。
3.双対問題は、O(log(1 / epsilon))でイプシロン最適解を生成する双対座標降下アルゴリズムを介して効率的に解決できるようになりました。
これは、1つを除くすべてのアルファを修正すると、閉じた形式のソリューションが得られることに注意することによって行われます。次に、すべてのアルファを1つずつ循環させます(たとえば、ランダムに1つを選択し、他のすべてのアルファを修正し、閉形式解を計算します)。このようにして、「最適な状態に近い」ソリューションを「かなり早く」取得できることを示すことができます(前述の論文の定理1を参照)。
二重問題が最適化の観点から魅力的である理由は他にもたくさんあります。アフィン等式制約が1つしかないという事実を活用するものもあります(remaing制約はすべて束縛された制約です)。二重問題の「ほとんどのアルファ」はゼロです(サポートベクトルに対応するゼロ以外のアルファ)。
Computational Learning Workshop(2009)でのStephen Wrightのプレゼンテーションから、SVMの数値最適化に関する考慮事項の概要を把握できます。
PS:私はここに新しいです。このウェブサイトで数学表記を使用するのが得意ではないことをおApびします。