最小角度回帰は、相関関係を単調に減少させ続けますか?


9

最小角度回帰(LAR)の問題を解決しようとしています。これが問題である3.23ページ上の97Hastieら、統計的学習、第二の要素。ed。(5回目の印刷)

すべての変数と応答が平均ゼロと標準偏差1を持つ回帰問題を考えてみましょう。また、各変数が応答と同一の絶対相関を持つと仮定します。

1N|xj,y|=λ,j=1,...,p

ましょうβはの最小二乗係数であるYXおよびlet Uα = α X βのためのα [ 0 1 ]β^yXu(α)=αXβ^α[0,1]

私はそれを示すように求められます と私はそれに問題があります。これは基本的に、各xjと残差との相関がuに向かって進んでも大きさが等しいことを示していることに注意してください。

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

また、相関関係が次の値に等しいことを示す方法もわかりません。

λ(α)=(1α)(1α)2+α(2α)NRSSλ

どんなポインタでも大歓迎です!


2
@ベルモント、?あなたの問題についてより多くの背景を提供できますか?たとえば、LARの標準的なプロパティを持つ記事へのリンクは、非常に役立ちます。u(α)
mpiktas

@Belmont、これはHastieらの問題、Elements of Statistical Learning、2番目のようです。ed。これは宿題ですか?もしそうなら、あなたはそのタグを追加するかもしれません。
枢機卿、

@カーディナルが完全な答えを出した今、@ベルモントは、将来の参照のために、LARが実際に何であるかを指定できますか?答えから判断すると、これはいくつかの初期制約が与えられた場合の最小二乗回帰の積の標準的な操作です。重大な理由がない限り、特別な名前を付けるべきではありません。
mpiktas

1
@mpiktas、これは段階的なアルゴリズムであるため、変数が正則化パスでモデルに出入りするたびに、のサイズ(つまり、カーディナリティ/ディメンション)がそれぞれ拡大または縮小し、「新しい」LS推定が現在「アクティブ」な変数。凸型最適化問題である投げ縄の場合、手順は基本的にKKT条件の特殊な構造を利用して非常に効率的な解を得ています。IRLSとハイネ・ボレルに基づい例えば、ロジスティック回帰、一般化にもあります(無収束有限を証明するためには、手順の。。)β
基数

1
@Belmont -1私は最近Hastieの本を購入したので、これはその演習であることを確認できます。したがって、私はあなたに大きな-1を与えています。あなたはすべての定義を与えることすらできないので、私は参照を与えることについてさえ話していません。
mpiktas

回答:


21

これは、Hastie et al。、Elements of Statistical Learning、2番目の97ページの問題3.23 です。ed。(5回目の印刷)

この問題の鍵は、通常の最小二乗法(つまり、線形回帰)、特に近似値と残差の直交性をよく理解することです。

Xn×pyβXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0

xjxjjX

  • 1Nxj,xj=1j1Ny,y=1
  • 1Nxj,1p=1Ny,1p=01pp
  • 1N|xj,y|=λj

xj,yy^=0j


相関関係は結ばれています

u(α)=αXβ^=αy^

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

jxjy

αp


(絶対)相関の明示的な形式

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

u(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

それを観察する

  • y,y=N
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^
  • yy^,yy^=RSS

これをすべてまとめると、

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

1RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


エピローグ:ここのアイデアに集中してください。本当に一つしかない。直交性の補題は、私たちのために、ほぼすべての作業を行います。残りは、代数、表記法、そしてこれら最後の2つを機能させる能力です。


2
@ cardinal、+ 1。答えは質問よりもはるかに優れています。
mpiktas

@ cardinal、amazonまたは他のサイトへのリンクを変更したい場合があります。本全体にリンクすると、著作権に関する問題が発生する可能性があると思います。
mpiktas

3
@mpiktas、いや。著作権の問題はありません。それは本の公式ウェブサイトです。著者はPDFをオンラインで自由に利用できるようにするためにSpringerから許可を得ました。(サイトへのこの影響に関する注記を参照してください。)彼らは、Stephen Boydと彼のConvex Optimizationテキストからアイデアを得たと思います。うまくいけば、このような傾向が今後数年間で勢いを取り戻すでしょう。楽しい!
枢機卿、

@cardinal、すごい感謝!それは著者からの寛大な力です。
mpiktas

@mpiktas、それは統計のSpringerシリーズで断然最も人気のある本です。それはiPadでよさそうだ。それを思い出す---ボイドのテキストもそれにダウンロードする必要があります。乾杯。
枢機卿
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.