線形回帰では、複数のRとRの2乗を取得することがよくあります。それらの違いは何ですか?
線形回帰では、複数のRとRの2乗を取得することがよくあります。それらの違いは何ですか?
回答:
資本(とは対照的に)は、一般的に、重回帰モデルの多重である必要があります。二変量線形回帰では、複数のおよびはありません。そのため、1つの違いは適用可能性です。「複数の」は複数のリグレッサーを意味しますが、「」は必ずしもそうではありません。
もう1つの単純な違いは解釈です。重回帰では、複数のは多重相関の係数であり、一方、その二乗は決定の係数です。は、2変量相関係数のように解釈できます。主な違いは、複数の相関が従属変数と予測子の線形結合(それらのいずれか1つではなく、それらの2変量相関の平均だけではない)の間であることです。は、予測変数によって説明できる従属変数の分散の割合として解釈できます。上記のように、予測子が1つしかない場合も同様です。
複数のRは、実際には、応答と近似値の間の相関関係と見なすことができます。そのため、常にポジティブです。Multiple R-squaredは、その2乗バージョンです。
小さな例を使用して説明しましょう。
set.seed(32)
n <- 100
x1 <- runif(n)
x2 <- runif(n)
y <- 4 + x1 - 2*x2 + rnorm(n)
fit <- lm(y ~ x1 + x2)
summary(fit) # Multiple R-squared: 0.2347
(R <- cor(y, fitted(fit))) # 0.4845068
R^2 # 0.2347469