40 インターセプトを削除するために、データを中央に配置するインスタンス(正則化またはPCAなど)について読み続けます(この質問で述べたように)。私はそれが簡単であることを知っていますが、私はこれを直感的に理解するのに苦労しています。誰かが私が読むことができる直観または参照を提供できますか? regression pca centering — アレック ソース 2 stats.stackexchange.com/questions/17336/…で(いくつかの方法で)説明されているように、これは「他の変数の制御」の非常に特殊なケースです。制御される「変数」は、定数(切片)項です。 — whuber
66 これらの写真は役に立ちますか? 最初の2つの写真は回帰に関するものです。データを中央に配置しても回帰直線の傾きは変わりませんが、切片は0に等しくなります。 11 11 — ttnphns ソース 1 y¯− X¯βy¯−バツ¯β 16 PCA is maximizing varianceこれは一般的に真実ではありません。PCAは、原点からの2乗和偏差を(最初のPCで)最大化します。データが予備的な中心にある場合のみ(中心化自体はPCAの一部ではない)、分散を最大化することになります。 — -ttnphns 3 PS共分散または相関の計算はセンタリングを意味することに注意してください — ttnphns 1 > PS共分散または相関の計算はセンタリングを意味することに注意してください-ttnphns 12年8月27日11:47で他のコメントにも同意しますが、共分散と相関の両方はセンタリングを意味しません。加法定数がデータに適用される場合、corもcovarも値を変更しません。 — TPM 14年 1 これは逆向きです。実際、加算定数は相関に影響を与えませんが、@ ttphnsが指摘したように、計算で減算されるためです。それはさておき、これは新しい答えではなく、コメントです。あなたはまだコメントするのに十分な評判を持っていないことを理解しているので、フラグを付けた後、これは十分な評判を持つユーザーによって動かされるでしょう。 — ニックコックス