これは、Hastie et al。、Elements of Statistical Learning、2番目の97ページの問題3.23 です。ed。(5回目の印刷)。
この問題の鍵は、通常の最小二乗法(つまり、線形回帰)、特に近似値と残差の直交性をよく理解することです。
Xn×pyβXββ^=(XTX)−1XTyy^=X(XTX)−1XTy⟨y^,y−y^⟩=y^T(y−y^)=0XT(y−y^)=XTy−XTX(XTX)−1XTy=XTy−XTy=0
xjxjjX
- 1N⟨xj,xj⟩=1j1N⟨y,y⟩=1
- 1N⟨xj,1p⟩=1N⟨y,1p⟩=01pp
- 1N|⟨xj,y⟩|=λj
⟨xj,y−y^⟩=0j
相関関係は結ばれています
u(α)=αXβ^=αy^
⟨xj,y−u(a)⟩=⟨xj,(1−α)y+αy−αy^⟩=(1−α)⟨xj,y⟩+α⟨xj,y−y^⟩,
1N|⟨xj,y−u(α)⟩|=(1−α)λ,
ρ^j(α)=1N|⟨xj,y−u(α)⟩|1N⟨xj,xj⟩−−−−−−−−√1N⟨y−u(α),y−u(α)⟩−−−−−−−−−−−−−−−−−−√=(1−α)λ1N⟨y−u(α),y−u(α)⟩−−−−−−−−−−−−−−−−−−√
jxjy
αp
(絶対)相関の明示的な形式
⟨y−u(α),y−u(α)⟩=⟨(1−α)y+αy−u(α),(1−α)y+αy−u(α)⟩.
u(α)=αy^
⟨y−u(α),y−u(α)⟩=(1−α)2⟨y,y⟩+2α(1−α)⟨y,y−y^⟩+α2⟨y−y^,y−y^⟩.
それを観察する
- ⟨y,y⟩=N
- ⟨y,y−y^⟩=⟨y−y^,y−y^⟩+⟨y^,y−y^⟩=⟨y−y^,y−y^⟩
- ⟨y−y^,y−y^⟩=RSS
これをすべてまとめると、
ρ^j(α)=(1−α)λ(1−α)2+α(2−α)NRSS−−−−−−−−−−−−−−−−−√=(1−α)λ(1−α)2(1−RSSN)+1NRSS−−−−−−−−−−−−−−−−−−−−−√
1−RSSN=1N(⟨y,y,⟩−⟨y−y^,y−y^⟩)≥0ρ^j(α)αρ^j(α)↓0α↑1
エピローグ:ここのアイデアに集中してください。本当に一つしかない。直交性の補題は、私たちのために、ほぼすべての作業を行います。残りは、代数、表記法、そしてこれら最後の2つを機能させる能力です。