単純回帰と重回帰の関係


10

OLS回帰のに関する非常に基本的な質問R2

  1. OLS回帰y〜x1を実行します、たとえば0.3です。R2
  2. OLS回帰y〜x2を実行します。別の、たとえば0.4です。R2
  3. ここで、回帰y〜x1 + x2を実行します。この回帰のR二乗はどのような値になりますか?

重回帰のが0.4以上であることは明らかだと思いますが、0.7を超えることは可能ですか?R2


2
ヒント:1.0になることもあります。どうして?(幾何学的に考えてください。または、具体的には単位円についてです。)
枢機卿

回答:


4

2番目のリグレッサは、最初のリグレッサが従属変数で説明できなかったものを単純に補うことができます。数値の例を次に示します。

x1サンプルサイズ20の標準的な通常のリグレッサーとして生成します。一般性を失うことなく、取ります。ここで、もです。ここで、2番目のリグレッサを、従属変数と最初のリグレッサの間の単なる違いとして考えます。U 、I N 0 1 yi=0.5x1i+uiuiN(0,1)x2

n <- 20 
x1 <- rnorm(n)

y <- .5*x1 + rnorm(n)

x2 <- y - x1
summary(lm(y~x1))$r.squared
summary(lm(y~x2))$r.squared
summary(lm(y~x1+x2))$r.squared

ありがとう!rの2乗を誤って理解していた。私があればと思っていないx1 + x2 = y、その後はsummary(lm(y~x1))$r.squared + summary(lm(y~x2))$r.squared何の1未満でなければなりませんが、明らかに私は間違っている...
オリヴィエ・マ

3

どの変数が最初にモデルに入るかに応じて0.3または0.4の下限以外は、あまり言えることはありません。どのくらいの、主に第二の可変をモデルにもたらしている情報に依存して上昇します。情報によると、もちろん、説明された応答の変動を意味します。R2

その点で重要な概念が1つあります。それは予測子間の相関です。相関が大きい場合、新しい変数はモデルに何ももたらさないだけでなく、推定が不正確になる(多重共線性)ため、既存の変数の推論も複雑にします。これが、新しい変数が他の変数と直交するのが理想的な理由です。観察研究でこれが発生する可能性はわずかですが、独自の実験を構築する場合など、制御された設定で実現できます。

しかし、変数がモデルにもたらす新しい情報をどのように正確に定量化しますか?これらすべてを考慮に入れる1つの広く使用されている測度は部分的な R2です。線形モデルのANOVAに精通している場合、これは、この変数をモデルに含めることで達成できる誤差の二乗和の比例的な減少に過ぎません。高いパーセンテージが望ましい一方で、低いパーセンテージはおそらくこれが正しい行動方針であるかどうかを考えさせるでしょう。

@cardinalがコメントで指摘したように、新しい決定係数は1と同じくらい高くなる可能性があります。0.400001と同じくらい低くなることもあります。追加の情報なしで伝える方法はありません。


@JohnK、なぜそれを0.4より厳密に大きくする必要があるのか​​、さらに説明してもらえますか?回帰の幾何学的解釈はここで役立ちますか?
Dnaiel 2017年

@Dnaiel決定係数は、モデル内の変数の数に関して減少しません。
JohnK 2017年

3

多重線形回帰における決定係数:多重線形回帰では、決定係数は、二次形式を使用して変数のペアワイズ相関の観点から記述できます。

R2=ry,xTrx,x1ry,x,

ここで、は、応答ベクトルと各説明ベクトル間の相関のベクトルであり、は、説明ベクトル間の相関行列です(これについて詳しくは、この関連質問を参照してください)。二変量回帰の場合、次のようになります。ry,xrx,x

R2=[rY,X1rY,X2]T[1rX1,X2rX1,X21]1[rY,X1rY,X2]=11rX1,X22[rY,X1rY,X2]T[1rX1,X2rX1,X21][rY,X1rY,X2]=11rX1,X22(rY,X12+rY,X222rX1,X2rY,X1rY,X2).

質問では一変量相関の方向を指定しなかったため、一般性を失うことなく、。値をと置き換えると、次のようになります。Dsgn(rY,X1)sgn(rY,X2){1,+1}rY,X12=0.3rY,X22=0.4

R2=0.720.12DrX1,X21rX1,X22.

可能性があります。これは、2つの変数からの結合された情報がその部分の合計を超える可能性があるためです。この興味深い現象は「エンハンスメント」と呼ばれます(たとえば、Lewis and Escobar 1986を参照)。R2>0.7

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.