1.低ランク回帰(RRR)とは何ですか?
多変量多重線形回帰、つまり、独立変数とq個の従属変数による回帰を検討してください。LET X及びYは、中心予測(BE N × P)及び応答(N × Q)データセット。その後、通常の通常の最小二乗(OLS)回帰は、次のコスト関数を最小化するように定式化できます。pqXYn×pn×q
L=∥Y−XB∥2,
ここで、は回帰重みのp × q行列です。その解は次式で与えられるB O L S = (X ⊤ X )- 1 X ⊤ Y、及び行うと同等であることを確認することは容易であるQ別OLS回帰、各従属変数の一つ。Bp×q
B^OLS=(X⊤X)−1X⊤Y,
q
縮小ランク回帰にランク制約導入、すなわちLはで最小化されるべきランク(B)≤ R、Rはの最大許容ランクであるB。BLrank(B)≤rrB
2. RRRソリューションの入手方法
RRRは固有ベクトル問題としてキャストできることがわかりました。実際、OLSはの列空間に直交射影本質的であるという事実使用、我々は書き換えることができLのようにL = ‖ Y - X B O L S ‖ 2 + ‖ X B O L S - X B ‖ 2。最初の用語に依存しないBと第2項は近似値のSVD / PCAによって最小化することができるY = X BXL
L=∥Y−XB^OLS∥2+∥XB^OLS−XB∥2.
B。
Y^=XB^OLS
具体的には、もし最初であるRの主軸Y、次いでB R R R = B O L S U R U ⊤ R。UrrY^
B^RRR=B^OLSUrU⊤r.
3. RRRのメリットは何ですか?
RRRを使用する理由は2つあります。
まず、正規化の目的で使用できます。リッジ回帰(RR)、なげなわなどと同様に、RRRは「収縮」ペナルティを導入します。最適なランクrは、相互検証によって見つけることができます。私の経験では、RRRは容易にOLSよりも優れていますが、RRを失う傾向があります。ただし、RRR + RRは、RR単独よりも(わずかに)優れたパフォーマンスを発揮できます。Br
第二に、次元削減/データ探索方法として使用できます。一連の予測変数と一連の従属変数がある場合、RRRは予測空間に「潜在因子」を構築し、DVの分散を説明する最良の仕事をします。その後、これらの潜在的要因を解釈し、プロットするなどを試みることができます。私が知る限り、これは日常的に行われ、RRRは冗長性分析として知られ、それらは調整方法と呼ばれるものの例です(@GavinSimpsonの答えはこちら)。
4.他の次元削減方法との関係
RRRは、CCAやPLSなどの他の次元削減方法と密接に関連しています。私はにそれを私の答えで少しカバー部分最小二乗、縮小ランク回帰、および主成分回帰との間の接続は何ですか?
もし XYn×pn×qw∈RpXv∈RqY
PCA:RRR:PLS:CCA:Var(Xw)Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)=Cov2(Xw,Yv)Var(Xw)⋅Corr2(Xw,Yv)
詳細については、こちらをご覧ください。
一般的な線形多変量法(PCA、CCA、LDAなど)の大部分(PLSではない!)をRRRと見なす方法の詳細については、Torre、2009、A Least-Squares Framework for Component Analysisを参照してください。
5. Hastie et al。のこのセクションはなぜですか。とても分かりにくい?
L=∥Y−XB∥2,
L=∥(Y−XB)(Y⊤Y)−1/2∥2,
YY白色化すると、差はなくなります。それで、Hastie et al。call RRRは、実際にはCCAに変装しています(実際、3.69を参照)。
このセクションではそのいずれも適切に説明されていないため、混乱が生じます。
さらに読むには、Friendlyチュートリアルへの私の答えまたはランクを下げた回帰の紹介を参照してください。