SVMの汎化限界


11

サポートベクターマシンの一般化能力の理論的な結果、たとえば分類エラーの確率やこれらのマシンのVapnik-Chervonenkis(VC)次元の限界に興味があります。しかし、文献を読んでいると、同じような定期的な結果の一部は著者間で、特に特定の拘束力を維持するために必要な技術的条件に関して、わずかに異なる傾向があるという印象を受けました。

以下では、私は私が反復的に何らかの形で発見したことを主な汎化結果のSVMの問題と状態3の構造を思い出すだろう私は博覧会を通して、主に3つの参照を与えます。

問題の設定

独立して同一に分布した(iid)ペアデータサンプルがあるとしますここで、すべての、と。、および定義される分離超平面間の最小マージンを最大化するサポートベクターマシン(SVM)を構築します、および間の最も近い点。これにより、および定義された2つのクラスが分離されます。SVMに、スラック変数を導入することにより、ソフトマージンを介していくつかのエラーを許可させます。(xi,yi)1inixiRpyi{1,1}m{x:wx+b=0}wRpbRx1,,xny=1y=1ξ1,,ξn しかし、説明の便宜のために、我々はカーネルの可能性を無視します。解のパラメーターとは、次の凸2次最適化プログラムを解くことによって得られます。wb

minw,b,ξ1,,ξn12w2+Ci=1nξis.t.:yi(wxi+b)1ξi,i{1,,n}ξi0,i{1,,n}

このマシンの汎化能力に興味があります。

Vapnik-ChervonenkisディメンションVC

最初の結果は(Vapnik、2000)によるもので、彼は分離超平面の定理5.1のVC次元を制限しています。まかせ、 我々は持っています:R=maxxixi

VCmin((Rm)2,p)+1

この結果は(Burges、1998)の定理6でも見つかります。ただし、ギャップ耐性の分類器として知られる分類器の特別なカテゴリを定義する必要があるため、バージェスの定理はVapnikによる同じ結果よりも制限的であるようです。 SVMが属する、定理を述べます。

エラーの確率の限界

(Vapnik、2000年)の139ページの定理5.2は、SVMの汎化能力に次の制限を与えます。

E[Perror]1nE[min(p,nSV,(Rw)2)]

ここで、はSVMのサポートベクトルの数です。この結果は、(Burges、1998)の式(86)と(93)に再び見つかるようです。しかし、繰り返しになりますが、バージックは上記の最小関数内のコンポーネントをさまざまな定理でさまざまな条件で分離しているため、バプニックとは異なるようです。nSV

(Vapnik、2000)p.133に現れた別の結果は次のとおりです。再び、すべての、とし、およびとすると、は次のように定義されます。ixi2R2hVCϵ[0,1]ζ

ζ=4h(ln2nh+1)lnϵ4n

また、を、SVMによって誤って分類されたトレーニング例の数と定義します。次に、確率を使用して、テスト例がマージン超平面つまり、マージン持つSVMによって正しく分離されない確率には限界があると断言できます。nerror1ϵmm

Perrornerrorn+ζ2(1+1+4nerrornζ)

しかし、(Hastie、Tibshirani and Friedman、2009)p.438で、非常に類似した結果が見つかりました。

ErrorTestζ

結論

これらの結果にはある程度の矛盾があるように思われます。一方、これらの参照のうち2つは、SVMの文献では標準的ですが、特に90年代半ばに始まったSVMアルゴリズムの研究を検討すると、わずかに古くなっています(1998および2000)。

私の質問は:

  • これらの結果は今日でも有効ですか、それとも間違っていることが判明しましたか?
  • それ以来、比較的緩い条件でより厳しい境界が導き出されていますか?もしそうなら、誰が、どこでそれらを見つけることができますか?
  • 最後に、SVMに関する主な一般化結果を総合する参考資料はありますか?

参照

バージス、JC(1998)。"パターン認識のためのサポートベクターマシンに関するチュートリアル"、データマイニングと知識の発見、2:121-167

Hastie、T.、Tibshirani、R.およびFriedman、J.(2009)。Elements of Statistical Learning、第2版、Springer

Vapnik、VN(1998)。Statistical Learning Theory、初版、John Wiley&Sons

Vapnik、VN(1999)。"Statistical Learning Theoryの概要"、IEEE Transactions on Neural Networks、10(5):988-999

Vapnik、VN(2000)。統計学習理論の性質、第2版、Springer


SVMの最新の(2008年の)リスク範囲をまとめたリファレンス:「サポートベクターマシン」(Ingo Steinwart、Andreas Christmann、Springer 2008)
登録

回答:


3

私はあなたが詳細に参照している文献を知りませんが、最新であるべき一般化の限界の包括的な要約はBoucheron et al。で見つけることができると思います。(2004)(リンク:https://www.researchgate.net/profile/Olivier_Bousquet/publication/238718428_Advanced_Lectures_on_Machine_Learning_ML_Summer_Schools_2003_Canberra_Australia_February_2-14_2003_Tubingen_Germany_August_4-16_2003_Revised_Lectures/links/02e7e52c5870850311000000/Advanced-Lectures-on-Machine-Learning-ML-Summer-Schools-2003- Canberra-Australia-February-2-14-2003-Tuebingen-Germany-August-4-16-2003-Revised-Lectures.pdf#page = 176

詳細を省いて、証明するSVMの一部を以下に示します。

SVMバウンドについて具体的に説明する前に、一般化バウンドが達成しようとしていることを理解する必要があります。

まず、真の確率がわかっていると仮定すると、可能な最良の分類器はベイズ分類器、つまり P(Y=+1|X=x)

g={+1  ifP(Y=1|X=x)>0.51  otherwise

統計学習理論の目標は、クラス分類(SVMなど) の違いを見つけることです。 とベイ分類子、つまり はデータが与えられた場合の予想損失であり、はモデルクラスで可能な最良の分類子であることに 注意してください。という用語は、推定エラーと呼ばれ、近似エラー(他の用語)よりもはるかに簡単に境界を設定できるため、多くの場合、フォーカスと呼ばれます。ここでは近似誤差も省略します。C

g^n=argmingCLn(g)
L(g^n)L(g)=L(g^n)L(gc)+L(gc)L(g).
L(g)=El(g(X),Y)gcCZ=:L(g)L(g^n)

推定誤差は、でさらに分解できます これで、2つのステップで制限できます。Z

Z=ZEZ+EZ.
  1. バウンド McDiarmid不等式を使用ZEZ

  2. バインドされたとRademacherの複雑さEZRn(C)=EsupgC|1/ni=1nl(g(Xi),Yi)|

McDiarmids不等式を使用すると、損失関数の範囲が以下の場合、ステップ1の結果は ここで、は信頼水準です。2番目のステップでは、 を示します。離散損失関数、つまり0-1などの非リプシッツがある場合-損失、Rad​​emacher Complexityをさらに制限するにはVC-Dimensionが必要です。ただし、ヒンジ損失などのL-リプシッツ関数の場合、これはによってさらに制限でき ここで、B

ZEZ2Bln(1/δ)2n,
δ
EZ2Rn(C),
Rn(C)λLR/n,

λ正則化を示します。Hinge-Lossおよび(Gauchy-Schwartz不等式で証明)の場合、これはさらに単純化されます。最後にすべての結果をまとめると、 L=1B=1+λR
L(g^n)L(gc)2(1+λR)ln(1/δ)2n+4λLR/n
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.