リッジ回帰における「行列反転の数値的安定性」の明快な説明とオーバーフィットの低減におけるその役割


10

私は最小二乗回帰問題で正則化を使用できることを理解しています

w=argminw[(yXw)T(yXw)+λw2]

そして、この問題は次のような閉じた形の解決策を持っています:

w^=(XTX+λI)1XTy.

2番目の方程式では、正則化はX T Xの対角にを追加するだけであることがわかります。これは、行列反転の数値的安定性を改善するために行われます。λXTX

数値の安定性に関する私の現在の「粗末な」理解は、関数がより「数値的に安定」すると、その出力はその入力のノイズの影響をあまり受けなくなるということです。数値安定性の向上というこの概念を、過剰適合の問題をどのように回避/軽減するかという全体像に関連付けるのが困難です。

私はウィキペディアや他のいくつかの大学のウェブサイトを見てみましたが、彼らはなぜこれがそうなのかを深く説明していません。


リッジ回帰が思い浮かびます。 リンク
EngrStudent、2016

回答:


2

Y=Xβ+ϵX(XTX)1XTYβX

λw^βw^βN(0,1λI)βββ

XNpβ^

編集:私の最初の応答で、関連する論文へのリンクを提供し、急いでそれを削除しました。ここにあります:http : //www.jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdf


1
現在の形式では、これは実際にはより多くのコメントです。あなたはそれを具体的な答えに具体化できると思いますか?
Silverfish 2016

pの下。5右/ pの上部 左の図3に関連する6つには、この投稿で尋ねられた質問の主要な議論が含まれています。
Mark L. Stone

これはすべて正しいですが、OPの質問に答えられるかどうかはわかりません。
アメーバ

amoeba、上記の私のコメントを参照してください。これは、後にEric Mittmanの回答jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdfから編集されたリンクを参照しています。
Mark L. Stone、

1

数値の安定性とオーバーフィッティングは、ある意味では関連していますが異なる問題です。

古典的なOLS問題:

古典的な最小二乗問題を考えてみましょう:

minimize(over b)(yXb)T(yXb)

b^=(XX)1(Xy)

limn1nXXE[xx]limn1nXyE[xy]

b^E[xx]1E[xy]yx1,x2,,xk

問題?

機械的に、何がうまくいかないのですか?考えられる問題は何ですか?

  1. E[xx]E[xy]
  2. X
    • E[xx]
    • XX

b^1nXX1nXyE[xx]E[xy]

pl=45pr=5

L2

今検討してください:

minimize(over b)(yXb)T(yXb)+λb2

L2b0b

L2$50L2pl=pr=25

L20

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.