1)二元性を直接呼び出すことにより、間違った方向に進んでいます。から得るために
arg minβ:∥β∥1≤t∥y−Xβ∥22
に
arg minβ∥ Y− Xβ∥22+ λ ∥はβ∥1
ラグランジュ乗数を呼び出すだけです。(例えば、[1]のセクション5.1を参照)
LMはしばしば、それらを教えるときに双対性のコンテキストで議論されますが、実際には、二重問題を考慮せずに、一方から他方に直接切り替えることができます。
投げ縄の二重問題に興味がある場合は、[2]のスライド12と13で解決されています。
2)おそらく見たのは、なげなわのKKT定常性条件です。
arg min12∥y−Xβ∥22+λ∥β∥1⟺−XT(y−Xβ^)+λs=0 for some s∈∂∥β^∥1
どこと呼ばれるsubdifferentialの規範。(これは基本的に微積分の標準的な「導関数は最小でゼロに等しい」条件ですが、微分不可能性のために調整されています。)∂∥β∥1ℓ1
劣微分を知っています ifしたがって、この方程式は、解のサポートと符号がわかっている場合、投げ縄の厳密な閉形式の解を与えます。つまり、|βi|=sign(βi)βi≠0
β^S^=(XTS^XS^)−1(XTS^y−λ∗sign(β^S^))
(余談ですが、このソリューションは、投げ縄の「収縮」効果を(OLSと比較して)非常に明確にします。)
もちろん、なげなわを解決する上で難しい部分は、解決策のサポートと兆候を見つけることです。そのため、これは実際にはそれほど役に立ちません。
ただし、これは非常に便利な理論構成であり、投げ縄の多くの優れた特性を証明するために使用できます。最も重要なのは、ラッソが "真の"変数のセットを回復する条件を確立するために、 "primal-dual witness"テクニックを使用できることです。[3]のセクション11.4を参照してください。
[1] S.ボイドとL.ヴァンデンベルヘ。凸最適化。https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdfで入手可能
[2] http://www.stat.cmu.edu/~ryantibs/convexopt-F15/lectures/13-dual-corres.pdf
[3] T.ハスティ、R。ティブシラニ、M。ウェインライト。スパース性による統計学習:なげなわと一般化。https://web.stanford.edu/~hastie/StatLearnSparsity_files/SLS_corrected_1.4.16.pdfで入手可能