そのようなデータに適したSVRを見つけようとしています。
私は4種類のSVRを知っています。
- イプシロン
- ニュー
- 最小二乗と
- 線形。
リニアSVRは多かれ少なかれL1 Regの投げ縄に似ていますが、残りの3つのテクニックの違いは何ですか?
そのようなデータに適したSVRを見つけようとしています。
私は4種類のSVRを知っています。
リニアSVRは多かれ少なかれL1 Regの投げ縄に似ていますが、残りの3つのテクニックの違いは何ですか?
回答:
では -SVR、パラメータあなたは、データセット内のサンプルの総数に対するあなたの溶液中で維持することを望むサポートベクトルの数の割合を決定するために使用されます。では -SVRパラメータ最適化問題の製剤に導入され、それはあなたのために(最適に)自動的に推定されています。
ただし、 -SVRでは、データセットからサポートベクトルになるデータベクトルの数を制御することはできません。それにもかかわらず、モデルで許容できるエラーの量を完全に制御でき、指定されたを超えるものはすべて、正則化パラメーターであるに比例してペナルティが課されます。
欲しいものに応じて、2つから選択します。小さなソリューション(サポートベクターが少ない)に本当に必死である場合、 -SVR を選択して、適切なモデルを取得したいと考えています。しかし、モデルのエラーの量を本当に制御して最高のパフォーマンスを得たい場合は、 -SVR を選択し、モデルが複雑すぎないこと(多くのサポートベクトル)を期待します。
違い -SVRと -SVRは、トレーニングの問題がパラメータ化される方法です。どちらもコスト関数で一種のヒンジ損失を使用します。 -SVM のパラメータを使用して、結果のモデルのサポートベクトルの量を制御できます。適切なパラメータが与えられれば、まったく同じ問題が解決されます。1
最小二乗SVRは、ヒンジ損失の代わりにコスト関数で二乗残差を使用することにより、他の2つとは異なります。
1:C.-C. ChangとC.-J. リン。トレーニング -supportベクトル回帰:理論とアルゴリズム。Neural Computation、14(8):1959-1977、2002。
私はパブロとマルクの両方の答えが好きです。もう1つのポイント:
マークが引用した論文には次のように書かれています(セクション4)
「 -SVR の動機は、パラメーターを決定することが容易ではない可能性があること です。したがって、ここでは可能な範囲に関心があります。予想どおり、結果はがターゲット値に関連していることを示しています。
[...]
有効範囲はターゲット値影響を受けるため、 -SVMのこの問題を解決する方法は、データをトレーニングする前にターゲット値をスケーリングすることです。すべての目標値がにスケーリングされる場合、例えば、、その後の有効範囲あろうのと同じ。次に、を選択する方が簡単な場合があります。 "
それはあなたのターゲット変数と利用を拡大しやすくなるべきであると考えるように私をもたらし使用するかどうかを決定しようとするよりも、-SVRをまたは SVRを。
どう思いますか?