なぜですか?(1変数線形回帰)


14

注: =合計平方和、 = 平方誤差合計、 =回帰平方和。タイトルの方程式は、多くの場合次のように記述されます。SSTSSESSR

=1nyy¯2==1nyy^2+=1ny^y¯2

かなり簡単な質問ですが、直感的な説明を探しています。直感的には、がより理にかなっているように思えます。たとえば、ポイントに対応するy値およびとします。ここで、は回帰直線上の対応するポイントです。また、データセットの平均y値がと仮定し。次に、この特定のポイントiについて、、および。明らかに、です。この結果はデー​​タセット全体に一般化されませんか?わかりません。SSTSSE+SSRバツ、Y iが = 3 、Y I ˉ Y = 0 S S T = 5 - 0 2 = 5 2 = 25 S S E = 5 3 2 = 2 2 = 4 S Sy=5y^=3y^y¯=0SST=502=52=25SSE=532=22=4SSR=(30)2=32=99+4<25


回答:


15

加算と減算により、 したがって、。書き込み したがって、(a)残差e_i = y_i- \ hat y_i近似値に直交する必要があります、\ sum_ {i = 1} ^ n(y_i -\ hat y_i)\ hat y_i = 0、および(b)適合値の合計は、従属変数の合計\ sum_ {i = 1} ^ ny_i = \ sum_ {i = 1}である必要があります^ n \ hat y_i n i = 1yi

i=1n(yiy¯)2=i=1n(yiy^i+y^iy¯)2=i=1n(yiy^i)2+2i=1n(yiy^i)(y^iy¯)+i=1n(y^iy¯)2
N Σ iが= 1Y I - Y IY I - ˉ Y= N Σ iは= 1Y I - Y IY I - ˉ Y N Σ iは= 1i=1n(yiy^i)(y^iy¯)=0E 、I = Y I - Y I Σ N iが= 1Y I - Y IY iが = 0 ΣをN iが= 1、Y iは = ΣをN iは= 1 、Yを
=1nyy^y^y¯==1nyy^y^y¯=1nyy^
e=yy^=1nyy^y^=0=1ny==1ny^

実際、(a)は、単一変数のケースが特別なケースである一般的な重回帰の行列表記で表示する方が簡単だと思います: (b)に関しては、定数に関するOLS基準関数の導関数(つまり、これを真にするためには回帰に1つ必要です!)、別名正規方程式は、 これはに再配置できます。 この式の右辺も明らかに。SSR

eバツβ^=yバツβ^バツβ^=yバツバツバツ1バツyバツβ^=yバツバツバツバツ1バツバツβ^=yバツバツβ^=0
SSRα^=2yα^β^バツ=0
iyi=nα^+β^ixi
i=1ny^iy^i=α^+β^xi

3

(1)である理由の直観SST=SSR+SSE

Y()の合計変動を1つの説明変数Xで説明しようとすると、変動の原因は正確に2つあります。最初に、X(Sum Square Regression)でキャプチャされた変動性があり、2番目に、X(Sum Square Error)でキャプチャされなかった変動性があります。したがって、(完全に等しい)。S S T = S S R + S S ESSTSST=SSR+SSE

(2)幾何学的直観

最初のいくつかの写真(特に3番目)をご覧くださいhttps : //sites.google.com/site/modernprogramevaluation/variance-and-bias

データ中の全変動の一部(データポイントからの距離)回帰直線(の回帰直線からの距離によって捕捉されたとエラー)(点からの回帰直線までの距離)。がより大きくなる余地はありません。ˉ Y SSTSSE+SSRY¯Y¯SSTSSE+SSR

(3)イラストの問題

SSEとSSRを個別に見ることはできません。特定の点については、残差が大きくなる可能性があり、Xからの説明力よりも多くの誤差があります。しかし、他の点については、残差が小さくなり、回帰直線が多くの変動性を説明します。それらはバランスを取り、最終的にます。もちろん、これは厳密ではありませんが、上記のような証明を見つけることができます。SST=SSR+SSE

また、回帰は1ポイントに対して定義されないことに注意してください:、分母がゼロになり、推定が未定義になることがわかります。b1=バツバツ¯YY¯バツバツ¯2

お役に立てれば。

-ライアンM.


1

切片が線形回帰に含まれる場合(残差の合計がゼロ)、。SST=SSE+SSR

証明 最後の部分が0に等しいことを証明する必要があります: 最小二乗回帰では、誤差の二乗の合計が最小化されます。

SST=i=1n(yiy¯)2=i=1n(yiy^i+y^iy¯)2=i=1n(yiy^i)2+2i=1n(yiy^i)(y^iy¯)+i=1n(y^iy¯)2=SSE+SSR+2i=1n(yiy^i)(y^iy¯)
i=1n(yiy^i)(y^iy¯)=i=1n(yiβ0β1xi)(β0+β1xiy¯)=(β0y¯)i=1n(yiβ0β1xi)+β1i=1n(yiβ0β1xi)xi
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi)2
に関してSSEの偏導関数を、ゼロに設定します。 したがって に関するSSEの偏導関数を、ゼロに設定します。 したがって したがって、 β0
SSEβ0=i=1n2(yiβ0β1xi)1=0
i=1n(yiβ0β1xi)1=0
β1
SSEβ1=i=1n2(yiβ0β1xi)1xi=0
i=1n(yiβ0β1xi)1xi=0
=1nyy^y^y¯=β0y¯=1nyβ0β1バツ+β1=1nyβ0β1バツバツ=0
SST=SSE+SSR+2=1nyy^y^y¯=SSE+SSR


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.