線形回帰では、なぜ正則化によってパラメーター値もペナルティになるのですか?


9

現在、リッジ回帰を学習しており、より複雑なモデルのペナルティ化(またはより複雑なモデルの定義)について少し混乱しました。

私が理解していることから、モデルの複雑度は必ずしも多項式次数と相関しているわけではありません。つまり、

2+3+4x2+5x3+6x4
は、5 x 5よりも複雑なモデルです。
5x5

そして、正則化のポイントはモデルの複雑さを低く保つことであることを知っています。たとえば、5次多項式

f(x;w)=w0+w1x+w2x2+w3x3+w4x4+w5x5

0であるパラメーターが多いほど良いです。

しかし、私が理解していないのは、それが同じ次数の多項式である場合、より低いパラメーター値のペナルティが少なくなるのはなぜですか?だからなぜでしょう:

2+5x+x3

433+342x+323x3

ありがとうございました!

回答:


10

パラメータ値は単にデータに依存するだけです

これはあなたの質問の重要な部分です。これは混乱するところです。

はい、パラメータ値はデータに依存します。しかし、モデルに適合せるとデータは固定されます。言い換えると、観測を条件とするモデルを適合させます。異なるデータセットに適合された異なるモデルの複雑さを比較することは意味がありません。

そして、固定データセットのコンテキストでは、モデル

2+5x+x3

実際、最も単純なモデル、つまりフラットゼロモデルに近いです。

433+342x+323x3,

これは、観測の規模に関係なく成立します。

24332433


1
低い等級係数は、高い係数よりも平坦なゼロから遠く離れていますか?それはタイプミスですか、それとも、定数から離れたモデルが定数に近いモデルほどペナルティを課されないのか、私は誤解していますか?
RM

すみません、それは確かにタイプミスでした。編集させてください。これを指摘してくれてありがとう!
Stephan Kolassa、
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.