回答:
かなり直感的な説明を探している場合。
ある意味では、線形回帰モデルは単なる平均にすぎません。算術平均を見つけるにはいくつかの値に対して、我々が意味で中心性の尺度である値を見つけ、その各偏差として定義されている全ての偏差(の和)平均値の右側は、その平均の左側にあるすべての偏差の合計に等しくなります。サンプルの平均を説明する最良の方法は言うまでもなく、この測定が優れているという固有の理由はありませんが、それは確かに直感的で実用的です。重要な点は、このように算術平均を定義することにより、算術平均を作成したら、その平均からのすべての偏差は定義によりゼロになる必要があるということです!
線形回帰では、これに違いはありません。私たちは(回帰直線上にある)当てはめ値とされている実際の値との間のすべての差の合計ようなラインにフィットより上のラインが正確に回帰直線と全ての値の間のすべての差の合計に等しく、下記ライン。繰り返しますが、これがフィットを構築するための最良の方法である固有の理由はありませんが、それは簡単で直感的に魅力的です。算術平均の場合と同様に、この方法で近似値を構築することにより、必然的に、その行からのすべての偏差がゼロになる必要があります。そうでなければ、これはOLS回帰ではありません。
行列代数を使用した簡単な導出:
として書くことができます
それから
どこ は直交行列です。以来 対称であるため、再配置できるため、
ゼロに等しい場合 そして 直交である。これは、リグレッサの行列が contains the intercept (a vector of , indeed).