サポートベクターマシンと回帰


回答:


17

基本的に、それらは同じ方法で一般化します。回帰に基づくカーネルベースのアプローチは、フィーチャを変換し、を何らかのベクトル空間に呼び出し、そのベクトル空間で線形回帰を実行することです。「次元の呪い」を避けるために、変換された空間の線形回帰は、通常の最小二乗とは多少異なります。結論は、形質転換された空間における回帰のように表すことができることであるX= Σ I W 、I φ X Iφ Xxをiはトレーニングセットからの観測値ですφ x(x)=iwiϕ(xi)ϕ(x)xiはデータに適用される変換であり、ドットはドット積です。したがって、線形回帰は、少数(好ましくは非常に少数)のトレーニングベクトルによって「サポート」されます。 ϕ()

数学的な詳細はすべて、変換された空間(「イプシロンに鈍感なチューブ」など)で行われる奇妙な回帰と変換の選択隠されています。開業医のために、いくつかの無料(通常の定義におけるパラメータの問題もあるφと回帰)のほか、フィーチャーは、ドメイン知識が通常有用であるところです。ϕϕ


直感的な観点から、これはクラスの「境界」線が最終的に2つのクラスのポイント間ではなくポイントを通過する単一クラス分類のようなものですか?
ウェイン

@ウェイン、それは私の理解です、はい。しかし、私は100%ではありません。
ザック

5

SVMの概要:サポートベクターマシン(SVM)はどのように機能しますか?

サポートベクトル回帰(SVR)に関して、http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdfmirror)からのこれらのスライドは非常に明確です。

ここに画像の説明を入力してください

ここに画像の説明を入力してくださいここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

ここに画像の説明を入力してください

Matlabのドキュメントにもまともな説明があり、さらに最適化解決アルゴリズムについても説明しています:https : //www.mathworks.com/help/stats/understanding-support-vector-machine-regression.htmlmirror)。

これまでのところ、この答えは、いわゆるイプシロン無依存SVM(ε-SVM)回帰を示しています。回帰のいずれかの分類のためのSVMの最新のバリアントがあります:最小二乗サポートベクトルマシン

さらに、SVRは、マルチ出力、別名マルチターゲット用に拡張できます。たとえば、{1}を参照してください。


参照:

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.