正則化線形対RKHS回帰


9

私はRKHS回帰と線形回帰の正則化の違いを研究していますが、両者の決定的な違いを理解するのに苦労しています。

入力-出力ペア所与の、Iは、関数推定するFを次のように F X U X = M Σ iは= 1 α I K Xはxは私は ここで、K はカーネル関数です。係数α mは解くことによってのいずれかで見つけることができる (xi,yi)f()

f(x)u(x)=i=1mαiK(x,xi),
K(,)αm ここで、表記の一部乱用、とIJ「カーネル行列の番目のエントリKであるKXIXのJ。これは、得られる α*=K+λNI-1Yを または、問題を通常のリッジ回帰/線形回帰の問題として扱うこともできます。
minαRn1nYKαRn2+λαTKα,
i,jKK(xi,xj)
α=(K+λnI)1Y.
溶液と α*=KTK+λNI-1KTY
minαRn1nYKαRn2+λαTα,
α=(KTK+λnI)1KTY.

これら2つのアプローチとその解決策の決定的な違いは何でしょうか?



@MThQ-「正常な」隆起回帰の説明はまだデュアルで機能していませんか?明確にするために、通常の隆起回帰は、(明示的な特徴表現が行われる)原始で機能していると想定されていると思います。
rnoodle 2018

回答:


5

ααtKα

KKK=UtDUDU

(K+λnI)1Y=[Ut(D+λnI)U]1Y=Ut[D+λnI]1UY.
KtK=K2
(K2+λnI)1KY=[Ut(D2+λnI)U]1KY=Ut[D2+λnI]1UKY=Ut[D2+λnI]1DUY=Ut[D+λnD1]1UY.
Kν1,,νnνiνi+λnνiνi+λn/νiνi

α

αRKHSαRidge2=ARKHSYARidgeY2[D+λnI]1[D+λnD1]1Y2maxi=1,,n{|(νi+λn)1(νi+λn/νi)1|}Y2maxi=1,,n{λn|1νi|(νi+λn)(νi2+λn)}Y2
Y

実際には、特定の状況で一方が他方よりも優れているかどうかを断定的に言うのは困難です。カーネル関数の観点からデータを表す場合、二乗誤差に関して最小化しているため、関数の対応するヒルベルト空間から最良の回帰曲線を効果的に選択しています。したがって、RKHSの内積に対するペナルティは、自然に進む方法のようです。


1
これについてのリファレンスはありますか?
rnoodle 2018
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.