正確にはどこに


7

私は、SVMが(カーネルトリックのない)バイナリの線形分類器であることを理解しました。彼らはトレーニングデータを持っています(xi,yi) どこ xi ベクトルであり、 yi{1,1}クラスです。それらはバイナリ、線形分類子なので、タスクはラベルでデータポイントを分離する超平面を見つけることです1 ラベル付きのデータポイントから +1

今のところ、データポイントは線形分離可能であり、スラック変数は必要ないものとします。

これで、トレーニングの問題が次の最適化問題であることがわかりました。

  • minw,b12w2
  • st yi(w,xi+b)1

私はそのminizmizingだと思うマージンを最大化手段(。しかし、私はそれが正方形がここにある理由を理解していないだろう何かの変更を1最小化しようとする場合?)。w2w

また、は、モデルがトレーニングデータに対して正しい必要があることを意味することも理解しました。ただし、ではなくます。どうして?yi(w,xi+b)010


数学の最小化(導関数= 0)では、二乗された方がおそらくより簡単な方程式になります
paparazzo

参照:Alexander Ihler:サポートベクターマシン(1):リニアSVM、 YouTubeの主要な形式。2015年1月25日。
Martin Thoma

回答:


10

最初の問題:最小化または:ww2

マージンを最大化したいのは正しいことです。これは実際には最大化することによって行われます。これは「正しい」方法ですが、かなり不便です。は定数なので、まずドロップします。今、もしで最大の、できるだけ小さくする必要があります。したがって、最小化することで、同じ解決策を見つけることができます。2w21ww w

wで計算できます。平方根は単調関数であるように、任意の点最大限も最大にする。したがって、この点を見つけるために平方根を計算する必要はなく、を最小化できます。wTwxf(x)f(x)xwTw=w2

最後に、導関数を計算する必要があることが多いため、式全体に係数を掛けます。、つまりを導出すると、これは非常に頻繁に行われます。これが問題の原因です。最小化するにはます。12ddxx2=2xddx12x2=x12w2

tl; dr:はい、最小化します代わりにが機能します。w12w2

2番目の問題: または:01

質問ですでに述べたように、は、点が超平面の正しい側になければならないことを意味します。しかし、これだけでは十分ではありません。点を少なくともマージンと同じくらい遠くにしたい(その場合、点はサポートベクトルです)か、さらに遠くにしたいです。yi(w,xi+b)0

超平面の定義を思い出してください、

H={xw,x+b=0}

ただし、この説明は一意ではありませんとを定数でスケーリングすると、この超平面の同等の説明が得られます。私たちの最適化アルゴリズムがとを一定の係数でスケーリングしてより高いマージンを取得することを確実にするために、超平面からのサポートベクトルの距離は常にと定義します。つまり、マージンは。したがって、サポートベクトルはによって特徴付けられます。wbcwb11wyi(w,xi+b)=1

すでに前述したように、すべての点をサポートベクトルにするか、超平面からさらに遠ざけます。したがって、トレーニングでは、制約を追加します。これにより、正確にそれが保証されます。yi(w,xi+b)1

tl; dr:トレーニングポイントは正しい必要があるだけでなく、マージン上またはさらに離れている必要があります。


私はそれを理解している場合だけで確認する:代わりの執筆、我々はまた、任意の定数使用することができますと書き込み、?1ϵϵϵ>0
Martin Thoma、2015

原則として、はい。(あなたはマージン内のいくつかの誤分類やポイントを可能)、ソフトマージンSVMの中などでは、あなたが使用あなたができるように、マージンから。もちろん、ほとんどのを強制的にゼロまたは少なくとも非常に低くするペナルティ項が必要です。1ξiξiξi
hbaderts 2015

1
上記のコメントで、マーティンはを追加していくつかの点を交差させるソフトマージンの場合についてではなく、を別の正の定数置き換えるとどうなるかについて尋ねていたと思います。その場合の結果は同じである(つまり、同じ分離平面が見つかる)と思いますが、は、マージンがになるようにスケーリングされますofξi1ϵw2ϵw2w
Tim Goodman

これはに直交する平面を規定によって原点からのオフセットにおける方向。同様に、は、直交し、原点からだけオフセットされた平面を定義します。したがって、2つの平面間の距離はw,x+b=ϵwϵbww(w,x+b)=ϵwϵbwϵbwϵbw=2ϵw
Tim Goodman
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.