回答:
唯一の本当の違いは、適用される正則化です。通常、正規化されたRBFネットワークでは、重みの2乗ノルムに基づくペナルティが使用されます。カーネルバージョンの場合、ペナルティは通常、カーネルによって誘導された特徴空間で暗黙的に構築された線形モデルの重みの2乗ノルムです。これがもたらす実際的な主な違いは、RBFネットワークのペナルティはRBFネットワークの中心(したがって使用されるデータのサンプル)に依存するのに対して、RBFカーネルの場合、誘導される特徴空間は、そのため、ペナルティは、パラメータ化ではなくモデルの機能に対するペナルティです。
言い換えれば、両方のモデルについて
RBFネットワークアプローチの場合、トレーニング基準は
RBFカーネル法のために、我々は、その、および→ wが = Σのℓ iは= 1 α I φ (→ X I)。この手段その誘起特徴空間におけるモデルの重み、上の二乗ノルムペナルティ→ wのデュアルパラメータに関して記述することができ、→ αとして
ここで、はすべてのトレーニングパターンに対するカーネルのペアごとの評価のマトリックスです。訓練基準は
。
2つのモデルの唯一の違いは、正則化項のです。
カーネルアプローチの主要な理論的利点は、データのサンプルに依存しない固定非線形変換に従う線形モデルとして、非線形モデルを解釈できることです。したがって、線形モデルに存在する統計学習理論は、自動的に非線形バージョンに移行します。ただし、これはすべて、カーネルパラメーターを調整しようとするとすぐに壊れます。この時点で、RBF(およびMLP)ニューラルネットワークの場合と理論的にはほぼ同じポイントに戻ります。したがって、理論上の利点は、おそらく私たちが望むほど大きくありません。
パフォーマンスの面で実際に違いが生じる可能性はありますか?おそらくあまりない。「無料昼食なし」の定理は、他のすべてのアルゴリズムに対するアプリオリの優位性はないことを示唆しており、正則化の違いはかなり微妙です。