リッジ回帰の実装:
私はPython / CモジュールでRidge Regressionを実装していますが、この「小さな」問題に遭遇しました。考え方は、「統計学習の要素」の65ページのプロットのように、ほぼ等間隔の有効自由度をサンプリングすることです。つまり、サンプル: df(λ)=∑i=1pd2id2i+λ,df(λ)=∑i=1pdi2di2+λ,\mathrm{df}(\lambda)=\sum_{i=1}^{p}\frac{d_i^2}{d_i^2+\lambda},d2idi2d_i^2XTXXTXX^TXdf(λmax)≈0df(λmax)≈0\mathrm{df}(\lambda_{\max})\approx 0df(λmin)=pdf(λmin)=p\mathrm{df}(\lambda_{\min})=pλmax=∑pid2i/cλmax=∑ipdi2/c\lambda_{\max}=\sum_i^p d_i^2/cλmax≫d2iλmax≫di2\lambda_{\max} \gg d_i^2cccc=0.1c=0.1c=0.1λmin=0λmin=0\lambda_{\min}=0 タイトルが示唆するように、その後、Iはサンプルに必要λλ\lambdaからのλminλmin\lambda_{\min}にλmaxλmax\lambda_{\max}ように、いくつかのスケールでdf(λ)df(λ)\mathrm{df}(\lambda)に、たとえば、(約)サンプリングされますcからpまでの0.10.10.1間隔...これを行う簡単な方法はありますか?ニュートン・ラプソン法を使用して、各\ lambdaの方程式\ mathrm {df}(\ lambda)を解くことを考えましたが、これは、特にpが大きい場合に繰り返しを追加しすぎます。助言がありますか?cccpppdf(λ)df(λ)\mathrm{df}(\lambda)λλ\lambdappp