リッジ回帰とPCA回帰の関係


19

私はウェブ上のどこかでリッジ回帰(正則化)とPCA回帰の関係を読んだことを覚えています:ハイパーパラメーターで -regularized回帰を使用している場合、場合、回帰は最小の固有値を持つPC変数。2 λ22λλ0

  • なぜこれが本当ですか?
  • これは最適化手順と関係がありますか?単純に、私はそれがOLSと同等であると予想していました。
  • 誰かがこれに関するリファレンスを持っていますか?

1
あなたの声明でPCAと回帰がどのように関連しているかをより明確に説明できますか?回帰では、従属変数と独立変数が区別されますが、PCAではソートは行われません。それでは、PCAをどの変数に適用していますか?独立変数だけではいけません。回帰とはほとんど関係ないからです。しかし、すべての変数に適用される場合、固有ベクトルはそれらすべての線形結合になります。従属変数が含まれているためそのようなコンポーネントをデータセットから削除することはどういう意味でしょうか?
whuber

1
接続(私が理解するように)、非常に小さな正則化ペナルティを使用する場合、L2正規化回帰は最小の固有値を持つ変数を削除します。したがって、設計行列でSVDを実行し、最小の固有値を持つ変数を削除することは、「ソフトな」正則化ペナルティを伴う回帰に相当します。これは、私が見つけた最も近い説明です。 edu /〜jiali / course / stat597e / notes2 / lreg.pdf
ホセG

3
あなたの参照は、あなたがあなたのコメントで言っていることの反対を示しているように見えます:小さな場合、結果にはほとんど変化がありません。何も削除されません。実際、いくつかのスライドは、ペナルティ付き回帰(推定値が向かって縮小する)と「PCA回帰」(最小成分が完全に削除される)の違いを指摘することを目的としているようです。状況によっては)。L 2 0λL20
whuber

2
Mmm ..は別の参照を見つけました:statweb.stanford.edu/~owen/courses/305/Rudyregularization.pdf スライド「および主要コンポーネント」では、リッジ回帰はこれらのコンポーネントにyを大きく投影しますdj *ため息*yridge
ホセG 14年

3
pに気づきましたか。その最新の参考文献の14はあなたの質問に明示的に答えていますか?
whuber

回答:


23

ましょう中心に予測子行列とその特異値分解考えると対角要素を有する対角行列である 。 N × P X = U S VS S Iバツn×pバツ=うんSVSs

通常の最小二乗(OLS)回帰の近似値は、リッジ回帰の適合値は、成分のPCA回帰(PCR)の近似値は、次の式で与えられます。Yは、 rは、IDGE=XβrはIDGE=XXX+λI-1XY=Uを

y^OLS=バツβOLS=バツバツバツ1バツy=うんうんy
K Y PCR=XPCAβPCR=U
y^rdge=バツβrdge=バツバツバツ+λ1バツy=うんdag{s2s2+λ}うんy
kK
y^PCR=バツPCAβPCR=うんdag{1100}うんy
あるゼロが続くもの。k

ここから次のことがわかります。

  1. もし次いで。λ=0y^rdge=y^OLS

  2. 場合、特異値大きいほど、リッジ回帰でのペナルティは小さくなります。小さな特異値(以下)が最もペナルティを受けます。λ>0ss2λ

  3. 対照的に、PCA回帰では、大きな特異値はそのまま保持され、小さな値(特定の数後)は完全に削除されます。これは、に相当するであろう最初のためにものと残りのため。kλ=0kλ=

  4. これは、リッジ回帰がPCRの「スムーズバージョン」と見なされることを意味します。

    (この直観は有用ですが、常に成り立つわけではありません;例えば、すべてのがほぼ等しい場合、リッジ回帰はすべての主成分をほぼ等しくペナルティすることができるだけで、PCRとは大きく異なります)。sバツ

  5. リッジ回帰は、実際にはパフォーマンスが向上する傾向があります(たとえば、相互検証されたパフォーマンスが高いなど)。

  6. 特に今、あなたの質問に答える:もし、その後、。最小のを削除することに対応する方法がわかりません。これは間違っていると思います。λ0y^rdgey^OLSs

1つの良いリファレンスは、統計学習の要素、セクション3.4.1「リッジ回帰」です。


このスレッドも参照してください:回帰におけるリッジ正則化の解釈、特に@BrianBorchersによる回答。


特異値max( thresh、0)をソフトしきい値にすると意味がありますか?(なげなわ回帰のソフトしきい値、スペクトルではありません。)sβLeastsquares
denis

k
うん診断11121k00うんTy

これは美しいです。
xxx222

6

統計学習の要素には、この接続に関する素晴らしい議論があります。

この接続とロジックを解釈した方法は次のとおりです。

  • PCAは、特徴変数の線形結合であり、新しい空間によって説明されるデータの分散を最大化しようとします。
  • 多重共線性の影響を受けるデータ(またはデータの行よりも多くの予測子)は、完全なランクを持たない共分散行列になります。
  • この共分散行列では、最小二乗解を決定するために反転することはできません。これにより、最小二乗係数の数値近似が無限に広がります。
  • Ridge Regressionは、共分散行列にペナルティラムダを導入して、LS係数の行列の反転と収束を可能にします。

PCA接続では、リッジ回帰が特徴の線形結合を計算して、多重共線性が発生している場所を特定します。分散が最小である(したがってPCAの特異値が小さく固有値が小さい)線形結合の特徴(主成分分析)は、最も厳しいペナルティを与えられます。

このように考えてください。最小の分散を持つフィーチャの線形結合の場合、最も類似しているフィーチャが見つかったため、多重共線性が発生しています。Ridgeは、この線形結合が記述している方向に関係なく、フィーチャセットを削減しないため、その方向に対応する元のフィーチャが最もペナルティを受けます。


2

バツβ=y
バツ
バツ=うんSVT
S=診断s

β

βOLS=VS1うんT
s

S1β

Sリッジ1=診断ss2+αβリッジ= VSリッジ1うんT

S1

SPCA1=診断1sθsγβPCA= VSPCA1うんT
θγ

したがって、両方の方法は、小さな値に対応する部分空間の影響を弱めます。PCAはそれを難し​​い方法で行いますが、尾根はより滑らかなアプローチです。

SmyReg1=診断Rs
Rバツバツ0Rバツバツ1バツ

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.