sklearnでMADを最小化する線形回帰
回帰クラス線形標準sklearnは、平均二乗誤差(MSE)を最小変量と共変量との間の近似直線関係を見出します。具体的には、を観測値の数とし、簡略化のために切片を無視します。ましょうの変量値で番目の観察との値であるの共変量番目の観測。線形関係は、 ここで、係数は、 NNNyjyjy_jjjjx1,j,…,xn,jx1,j,…,xn,jx_{1,j}, \dots, x_{n,j}nnnjjjy=β1x1+…βnxn;y=β1x1+…βnxn; y = \beta_1 x_1 + \dots \beta_n x_n;β1,…,βnβ1,…,βn\beta_1, \dots, \beta_nβ1,…,βn=argminβ~1,…,β~n(∑j=1N(yj−β~1x1,j−⋯−β~nxn,j)2).β1,…,βn=argminβ~1,…,β~n(∑j=1N(yj−β~1x1,j−⋯−β~nxn,j)2).\beta_1, \dots, \beta_n = \underset{\tilde\beta_1, \dots, \tilde\beta_n}{\mathrm{argmin}} \left( \sum_{j = 1}^N \left( y_j - \tilde\beta_1x_{1, j} - \dots -\tilde\beta_nx_{n, j}\right)^2 \right). ここで、平均二乗誤差ではなく、平均絶対偏差(MAD)を最小化する係数を見つけたいと思います。つまり、 β1,…,βn=argminβ~1,…,β~n(∑j=1N∣∣yj−β~1x1,j−⋯−β~nxn,j∣∣).β1,…,βn=argminβ~1,…,β~n(∑j=1N|yj−β~1x1,j−⋯−β~nxn,j|).\beta_1, \dots, \beta_n = \underset{\tilde\beta_1, \dots, \tilde\beta_n}{\mathrm{argmin}} \left( \sum_{j = 1}^N \left| y_j - …