何らかの理由でモデルに変数を1つだけ含める場合、相関が最も高い予測変数を選択するといくつかの利点があります。予測子が1つだけの可能な回帰モデルのうち、このモデルは最も標準化された回帰係数が高く、(R 2は単純な線形回帰のrの二乗であるため)決定係数が最も高いモデルです。yR2r
ただし、複数のデータを使用できる場合、回帰モデルを1つの予測変数に制限する理由は明らかではありません。コメントで述べたように、モデルに複数の変数が含まれている可能性がある場合、相関関係を調べるだけでは機能しません。たとえば、この散布行列から、モデルに含める必要があるの予測子はx 1(相関0.824)とx 2(相関0.782)であるが、x 3(相関0.134)は有用な予測子ではないと考えるかもしれません。yx1x2x3
ただし、この例では、は2つの独立変数x 1とx 3に依存していますが、x 2に直接依存しているわけではありません。ただし、x 2はx 1と高度に相関しており、これはyとの相関にもつながります。孤立してyとx 2の相関を見ると、これはx 2がyの良い予測子であることを示唆しているかもしれません。しかし、効果の後、X 1がされてpartialledを含むことにより、Xを1yx1x3x2x2x1yyx2x2yx1x1 モデルでは、そのような関係は残りません。
require(MASS) #for mvrnorm
set.seed(42) #so reproduces same result
Sigma <- matrix(c(1,0.95,0,0.95,1,0,0,0,1),3,3)
N <- 1e4
x <- mvrnorm(n=N, c(0,0,0), Sigma, empirical=TRUE)
data.df <- data.frame(x1=x[,1], x2=x[,2], x3=x[,3])
# y depends on x1 strongly and x3 weakly, but not directly on x2
data.df$y <- with(data.df, 5 + 3*x1 + 0.5*x3) + rnorm(N, sd=2)
round(cor(data.df), 3)
# x1 x2 x3 y
# x1 1.000 0.950 0.000 0.824
# x2 0.950 1.000 0.000 0.782
# x3 0.000 0.000 1.000 0.134
# y 0.824 0.782 0.134 1.000
# Note: x1 and x2 are highly correlated
# Since y is highly correlated with x1, it is with x2 too
# y depended only weakly on x3, their correlation is much lower
pairs(~y+x1+x2+x3,data=data.df, main="Scatterplot matrix")
# produces scatter plot above
model.lm <- lm(data=data.df, y ~ x1 + x2 + x3)
summary(model.lm)
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 4.99599 0.02018 247.631 <2e-16 ***
# x1 3.03724 0.06462 47.005 <2e-16 ***
# x2 -0.02436 0.06462 -0.377 0.706
# x3 0.49185 0.02018 24.378 <2e-16 ***
x1x2x2x1x3x3
そして、さらに悪い例があります:
Sigma <- matrix(c(1,0,0,0.5,0,1,0,0.5,0,0,1,0.5,0.5,0.5,0.5,1),4,4)
N <- 1e4
x <- mvrnorm(n=N, c(0,0,0,0), Sigma, empirical=TRUE)
data.df <- data.frame(x1=x[,1], x2=x[,2], x3=x[,3], x4=x[,4])
# y depends on x1, x2 and x3 but not directly on x4
data.df$y <- with(data.df, 5 + x1 + x2 + x3) + rnorm(N, sd=2)
round(cor(data.df), 3)
# x1 x2 x3 x4 y
# x1 1.000 0.000 0.000 0.500 0.387
# x2 0.000 1.000 0.000 0.500 0.391
# x3 0.000 0.000 1.000 0.500 0.378
# x4 0.500 0.500 0.500 1.000 0.583
# y 0.387 0.391 0.378 0.583 1.000
pairs(~y+x1+x2+x3+x4,data=data.df, main="Scatterplot matrix")
model.lm <- lm(data=data.df, y ~ x1 + x2 + x3 +x4)
summary(model.lm)
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 4.98117 0.01979 251.682 <2e-16 ***
# x1 0.99874 0.02799 35.681 <2e-16 ***
# x2 1.00812 0.02799 36.016 <2e-16 ***
# x3 0.97302 0.02799 34.762 <2e-16 ***
# x4 0.06002 0.03958 1.516 0.129
yx1x2x3x4x1x2x3x4yy 実際にはモデルにまったく属さない変数を見つけることができます。