玩具データを使用した2Dデモを使用して、正則化の有無にかかわらずロジスティック回帰の完全な分離のために何が起こっていたかを説明します。実験は重複するデータセットから始まり、2つのクラスを徐々に離します。目的関数の等高線と最適値(ロジスティック損失)を右のサブ図に示します。データと線形判定境界が左のサブ図にプロットされています。
まず、正則化せずにロジスティック回帰を試みます。
- データが離れていくのを見るとわかるように、目的関数(ロジスティック損失)は劇的に変化しており、最適値はより大きな値に向かっています。
- 操作を完了すると、輪郭は「閉じた形状」になりません。このとき、解が右上隅に移動すると、目的関数は常に小さくなります。
次に、L2正則化を使用したロジスティック回帰を試みます(L1も同様です)。
コード(この答えにも同じコードを使用します:ロジスティック回帰の正則化方法)
set.seed(0)
d=mlbench::mlbench.2dnormals(100, 2, r=1)
x = d$x
y = ifelse(d$classes==1, 1, 0)
logistic_loss <- function(w){
p = plogis(x %*% w)
L = -y*log(p) - (1-y)*log(1-p)
LwR2 = sum(L) + lambda*t(w) %*% w
return(c(LwR2))
}
logistic_loss_gr <- function(w){
p = plogis(x %*% w)
v = t(x) %*% (p - y)
return(c(v) + 2*lambda*w)
}
w_grid_v = seq(-10, 10, 0.1)
w_grid = expand.grid(w_grid_v, w_grid_v)
lambda = 0
opt1 = optimx::optimx(c(1,1), fn=logistic_loss, gr=logistic_loss_gr, method="BFGS")
z1 = matrix(apply(w_grid,1,logistic_loss), ncol=length(w_grid_v))
lambda = 5
opt2 = optimx::optimx(c(1,1), fn=logistic_loss, method="BFGS")
z2 = matrix(apply(w_grid,1,logistic_loss), ncol=length(w_grid_v))
plot(d, xlim=c(-3,3), ylim=c(-3,3))
abline(0, -opt1$p2/opt1$p1, col='blue', lwd=2)
abline(0, -opt2$p2/opt2$p1, col='black', lwd=2)
contour(w_grid_v, w_grid_v, z1, col='blue', lwd=2, nlevels=8)
contour(w_grid_v, w_grid_v, z2, col='black', lwd=2, nlevels=8, add=T)
points(opt1$p1, opt1$p2, col='blue', pch=19)
points(opt2$p1, opt2$p2, col='black', pch=19)