ここに最適化からのきちんとしたものがあります:乗数の交互方向法(ADMM)アルゴリズム。
2つの変数の非結合凸関数関数(変数自体はベクトルになる可能性があります)と、2つの変数を結合する線形制約が与えられた場合:
minf1(x1)+f2(x2)
s.t.A1x1+A2x2=b
Lρ(x1,x2,λ)=f1(x1)+f2(x2)+λT(A1x1+A2x2−b)+ρ2||A1x1+A2x2−b||22
Lρ(x1,x2,λ)x1x2,λLρ(x1,x2,λ)x2x1,λλ。このサイクルは、停止基準に達するまで続きます。
(注:Ecksteinなどの一部の研究者は、近位オペレーターを優先してGauss-Siedel分割ビューを破棄します。たとえば、http: //rutcor.rutgers.edu/pub/rrr/reports2012/32_2012.pdfを参照してください)
凸問題の場合、このアルゴリズムは収束することが証明されています-変数の2つのセットに対して。これは、3つの変数には当てはまりません。たとえば、最適化の問題
minf1(x1)+f2(x2)+f3(x3)
s.t.A1x1+A2x2+A3x3=b
Even if all the f are convex, the ADMM-like approach (minimizing the Augmented Lagrangian with respect to each variable xi, then updating the dual variable λ) is NOT guaranteed to converge, as was shown in this paper.
https://web.stanford.edu/~yyye/ADMM-final.pdf