「ランクを下げた回帰」とは何ですか?


22

私は統計学習の要素を読んでおり、セクション3.7「複数の結果の縮小と選択」が何であるかを理解できませんでした。RRR(Reduced-Rank Regression)について説明しており、前提は一般的な多変量線形モデルに関するものであり、係数は不明であり(推定される)、完全なランクを持たないことがわかっていることしか理解できません。私が理解しているのはそれだけです。

残りの数学は私を超えています。著者が「見せることができる」と言うことさえ助けにならず、物事を演習として残します。

誰かがここで何が起こっているのかを直感的に説明してもらえますか?この章では、おそらく新しい方法について説明していますか?または何?


1
収縮と変数選択のコンテキストで複数の結果モデルを活用する回帰方法を提供するようです。Yの結果は1つではなく、複数のYの結果があります。5つのYの結果があるとします。このセクションでは、5つの個別のモデルを構築する代わりに、メソッドの推定をプールするメソッドについて説明します。
spdrnl

1
私の数セント:低ランクのマトリックスの仮定は物事を簡単にします。幸いなことに、この仮定は多くの現実世界のデータソースに当てはまります。
ヴラディスラフドヴガレス

1
この仮定は、ソリューションに制限があることのようです。このホワイト
Vladislavs Dovgalecs

回答:


42

1.低ランク回帰(RRR)とは何ですか?

多変量多重線形回帰、つまり、独立変数とq個の従属変数による回帰を検討してください。LET X及びYは、中心予測(BE N × P)及び応答(N × Q)データセット。その後、通常の通常の最小二乗(OLS)回帰は、次のコスト関数を最小化するように定式化できます。pqXYn×pn×q

L=YXB2,

ここで、は回帰重みのp × q行列です。その解は次式で与えられるB O L S = XX - 1 XY及び行うと同等であることを確認することは容易であるQ別OLS回帰、各従属変数の一つ。Bp×q

B^OLS=(XX)1XY,
q

縮小ランク回帰にランク制約導入、すなわちLはで最小化されるべきランクBRRはの最大許容ランクであるBBLrank(B)rrB

2. RRRソリューションの入手方法

RRRは固有ベクトル問題としてキャストできることがわかりました。実際、OLSはの列空間に直交射影本質的であるという事実使用、我々は書き換えることができLのようにL = Y - X B O L S2 + X B O L S - X B 2最初の用語に依存しないBと第2項は近似値のSVD / PCAによって最小化することができるY = X BXL

L=YXB^OLS2+XB^OLSXB2.
BY^=XB^OLS

具体的には、もし最初であるRの主軸Y、次いでB R R R = B O L S U R U RUrrY^

B^RRR=B^OLSUrUr.

3. RRRのメリットは何ですか?

RRRを使用する理由は2つあります。

まず、正規化の目的で使用できます。リッジ回帰(RR)、なげなわなどと同様に、RRRは「収縮」ペナルティを導入します。最適なランクrは、相互検証によって見つけることができます。私の経験では、RRRは容易にOLSよりも優れていますが、RRを失う傾向があります。ただし、RRR + RRは、RR単独よりも(わずかに)優れたパフォーマンスを発揮できます。Br

第二に、次元削減/データ探索方法として使用できます。一連の予測変数と一連の従属変数がある場合、RRRは予測空間に「潜在因子」を構築し、DVの分散を説明する最良の仕事をします。その後、これらの潜在的要因を解釈し、プロットするなどを試みることができます。私が知る限り、これは日常的に行われ、RRRは冗長性分析として知られ、それらは調整方法と呼ばれるものの例です(@GavinSimpsonの答えはこちら)。

4.他の次元削減方法との関係

RRRは、CCAやPLSなどの他の次元削減方法と密接に関連しています。私はにそれを私の答えで少しカバー部分最小二乗、縮小ランク回帰、および主成分回帰との間の接続は何ですか?

もし XYn×pn×qwRpXvRqY

PCA:Var(Xw)RRR:Var(Xw)Corr2(Xw,Yv)Var(Yv)PLS:Var(Xw)Corr2(Xw,Yv)Var(Yv)=Cov2(Xw,Yv)CCA:Var(Xw)Corr2(Xw,Yv)

詳細については、こちらをご覧ください。

一般的な線形多変量法(PCA、CCA、LDAなど)の大部分(PLSではない!)をRRRと見なす方法の詳細については、Torre、2009、A Least-Squares Framework for Component Analysisを参照してください。

5. Hastie et al。のこのセクションはなぜですか。とても分かりにくい?

L=YXB2,
L=(YXB)(YY)1/22,
YY白色化すると、差はなくなります。それで、Hastie et al。call RRRは、実際にはCCAに変装しています(実際、3.69を参照)。

このセクションではそのいずれも適切に説明されていないため、混乱が生じます。


さらに読むには、Friendlyチュートリアルへの私の答えまたはランクを下げた回帰の紹介を参照してください。


これは非常にうまく書かれた詳細な説明です。ありがとう、感謝します。
-cgo

rBます。これは母集団係数であり、したがって未知のパラメーターです。少し詳しく説明していただけますか?
アントニ・パレラダ

1
(1)多変量回帰、@ Antoni、つまりYBBLBL
アメーバは、モニカーを復活させる

1
rrdf^(r)=pq(pr)(qr)+"a small correction term"pqrYY^RRRR(r)Fro2(nqdf^(r))2

1
たとえば、google.fr
url

3

低ランク回帰は、単一のYの結果ではなく、複数のYの結果があるモデルです。もちろん、応答ごとに別々の多変量線形回帰を当てはめることもできますが、予測変数と各応答の間の関数関係が明らかに類似している場合、これは非効率的と思われます。これが明らかに当てはまると思う状況については、このkaggleの演習を参照してください。

https://www.kaggle.com/c/bike-sharing-demand/data

この問題に取り組むためのいくつかの関連技術があり、Y変数の予測に使用されるX変数から「ファクター」または「コンポーネント」を構築します。SASのこのドキュメントページは、違いを明確にするのに役立ちました。ランク回帰の削減は、応答と予測子の両方の変動を最大限に考慮するコンポーネントを抽出する部分最小二乗法とは対照的に、応答間の変動を最大限に考慮するコンポーネントの抽出に関するものと思われます。

https://support.sas.com/documentation/cdl/en/statug/63347/HTML/default/viewer.htm#statug_pls_sect014.htm


+1。そのとおりです。このstats.stackexchange.com/questions/206587への回答で、このSASドキュメントページ、特にその図について説明しました。
アメーバは、モニカーを復活させる
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.