一般に、センタリングは多重共線性を減らすのに役立ちますが、「多重共線性で死ぬことはおそらくないでしょう」(predrofigueiraの回答を参照)。
最も重要なのは、インターセプトを意味のあるものにするために、センタリングがしばしば必要になることです。単純なモデルでは、切片は予期される結果として定義され。場合はゼロの値は意味がない、どちらもiterceptではありません。多くの場合、変数をその平均の周りに集中させると便利です。この場合、予測子の形式はで、切片は、値が平均と等しい被験者の予想される結果です。yi=α+βxi+εx=0xx(xi−x¯)αxix¯
そのような場合は、を中央に配置してから正方形にする必要があります。「新しい」変数で結果を回帰するため、と別々に中央することはできません。したがって、この新しい変数を二乗する必要があります。センタリングはどういう意味ですか?xxx2(xi−x¯)x2
平均が意味のある場合は、カウント変数を中央に配置できますが、スケーリングすることもできます。たとえば、および "2"がベースラインである場合、2を減算できます:。切片は、値が参照値である「2」に等しい被験者の予想される結果になります。x=1,2,3,4,5(xi−2)=−1,0,1,2,3xi
除算に関しては問題ありません:推定係数が大きくなります!Gelman and Hill、§4.1で例を示します:
earningsearningsearnings=−61000+1300⋅height (in inches)+error=−61000+51⋅height (in millimeters)+error=−61000+81000000⋅height (in miles)+error
1インチはミリメートルなので、はです。1インチはエミルなので、はです。しかし、これら3つの方程式は完全に等価です。25.4511300/25.41.6e−5810000001300/1.6e−5