ガウスRBFとガウスカーネル


18

Gaussian Radial Basis Function(RBF)で線形回帰を行うこととGaussianカーネルで線形回帰を行うことの違いは何ですか?


サイト@ user35965へようこそ。頭字語を綴ってください。「RBF」とは、動径基底関数を意味しますか?
GUNG -復活モニカ

2
はい、それは私が意味するものです。将来の参照のために正式に注記されています。
user35965

回答:


19

唯一の本当の違いは、適用される正則化です。通常、正規化されたRBFネットワークでは、重みの2乗ノルムに基づくペナルティが使用されます。カーネルバージョンの場合、ペナルティは通常、カーネルによって誘導された特徴空間で暗黙的に構築された線形モデルの重みの2乗ノルムです。これがもたらす実際的な主な違いは、RBFネットワークのペナルティはRBFネットワークの中心(したがって使用されるデータのサンプル)に依存するのに対して、RBFカーネルの場合、誘導される特徴空間は、そのため、ペナルティは、パラメータ化ではなくモデルの機能に対するペナルティです。

言い換えれば、両方のモデルについて

f(x)=i=1αiK(xi,x)

RBFネットワークアプローチの場合、トレーニング基準は

L=i=1(yif(xi))2+λα2

RBFカーネル法のために、我々は、その、およびwが = Σのiは= 1 α I φ X I。この手段その誘起特徴空間におけるモデルの重み、上の二乗ノルムペナルティwのデュアルパラメータに関して記述することができ、αとしてK(x,x)=ϕ(x)ϕ(x)w=i=1αiϕ(xi)wα

w2=αTKα,

ここで、はすべてのトレーニングパターンに対するカーネルのペアごとの評価のマトリックスです。訓練基準はK

L=i=1(yif(xi))2+λαTKα

2つのモデルの唯一の違いは、正則化項のです。K

カーネルアプローチの主要な理論的利点は、データのサンプルに依存しない固定非線形変換に従う線形モデルとして、非線形モデルを解釈できることです。したがって、線形モデルに存在する統計学習理論は、自動的に非線形バージョンに移行します。ただし、これはすべて、カーネルパラメーターを調整しようとするとすぐに壊れます。この時点で、RBF(およびMLP)ニューラルネットワークの場合と理論的にはほぼ同じポイントに戻ります。したがって、理論上の利点は、おそらく私たちが望むほど大きくありません。

パフォーマンスの面で実際に違いが生じる可能性はありますか?おそらくあまりない。「無料昼食なし」の定理は、他のすべてのアルゴリズムに対するアプリオリの優位性はないことを示唆しており、正則化の違いはかなり微妙です。


1
@CagdasOzgencはい、RBFためregulariserであるなくα T K αカーネル機用。KIに近づくにつれて、基底関数の幅がゼロに近づくにつれて、それらはより類似します。これは基本的に、Kが基底関数間の相関を考慮しているためだと思います。α2=αTIααTKαKIK
ディクランMarsupial

Kϕ(x)

Kα2αTKα=μαTIα, which is not generally true (especially not for the RBF kernel).
Dikran Marsupial

Thank you. I will reflect on this will get back to you. At the moment it seems I am not at your level of understanding. I need to do more thinking :).
Cagdas Ozgenc

@CagdasOzgenc no problem, most of the standard texts explain it through eigenfunctions of the kernel function, which makes my brain hurt as well! ;o)
Dikran Marsupial
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.