2
複数の
線形回帰では、モデルを当てはめると楽しい結果に出会いました E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, 次に、、X 1およびX 2データを標準化して中央揃えすると、YYYX1X1X_1X2X2X_2 R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R^2 = \mathrm{Cor}(Y,X_1) \beta_1 + \mathrm{Cor}(Y, X_2) \beta_2. これは、y = m x + c回帰の 2変数バージョンのように感じます。R2=Cor(Y,X)2R2=Cor(Y,X)2R^2 = \mathrm{Cor}(Y,X)^2y=mx+cy=mx+cy=mx+c しかし、私が知っている唯一の証拠は、いずれにせよ建設的または洞察に富んでいない(下記を参照)ものですが、それを見ると、すぐに理解できるはずです。 考えの例: およびβ 2のパラメータは、私たちの「割合」与えるX 1およびX 2でYを、我々は彼らの相関のそれぞれの割合を取っているので、と...β1β1\beta_1β2β2\beta_2X1X1X_1X2X2X_2YYY sは部分相関であり、R 2は二乗複数の相関である...相関は部分相関を乗じ...ββ\betaR2R2R^2 最初に直交化すると、はC o v / V a r ...になります。この結果は幾何学的に意味がありますか?ββ\betaCov/VarCov/Var\mathrm{Cov}/\mathrm{Var} これらのスレッドのどれも私にとってどこにも通じないようです。誰もがこの結果を理解する方法の明確な説明を提供できますか? 不満足な証拠 R2=SSregSSTot=SSregN=⟨(β1X1+β2X2)2⟩=⟨β21X21⟩+⟨β22X22⟩+2⟨β1β2X1X2⟩R2=SSregSSTot=SSregN=⟨(β1X1+β2X2)2⟩=⟨β12X12⟩+⟨β22X22⟩+2⟨β1β2X1X2⟩\begin{equation} R^2 …