タグ付けされた質問 「vc-dimension」

1
デシジョンツリーのVCディメンションとは何ですか?
2つの次元にk分割された決定木のVC次元とは何ですか?モデルがCARTであり、許可される分割は軸に平行であるとしましょう。 したがって、1回の分割で三角形の3つのポイントを注文し、ポイントのラベル付けで完全な予測を得ることができます(つまり:粉砕ポイント) しかし、2分割、または一般的なkはどうですか?

2
ニューラルネットワークの複雑さを測定するためのVC次元の代替手段は何ですか?
ニューラルネットワークの複雑さを測定するいくつかの基本的な方法に出会いました。 素朴で非公式:ニューロン、隠れニューロン、層、または隠れ層の数を数える VC次元(Eduardo D. Sontag [1998]「ニューラルネットワークのVC次元」[ pdf ]) との等価性によるTC0dTCd0TC^0_d粗化および漸近計算の複雑さの尺度。 他の選択肢はありますか? 推奨されます: 複雑さのメトリックを使用して、同じスケールで異なるパラダイムからのニューラルネットワークを測定できる場合(バックプロップ、ダイナミクスニューラルネット、カスケード相関など)。たとえば、ネットワーク上のさまざまなタイプ(またはニューラルネットワーク以外のもの)でVC次元を使用できますが、ニューロンの数は、活性化関数、信号(基本和とスパイク)、およびその他の非常に特定のモデル間でのみ役立ちますネットワークのプロパティは同じです。 ネットワークで学習可能な機能の複雑さの標準的な尺度にうまく対応している場合 特定のネットワークでメトリックを簡単に計算できる場合(ただし、最後のネットワークは必須ではありません。) ノート この質問は、CogSci.SEに関するより一般的な質問に基づいています。

1
深層学習について、VCディメンションは何を教えてくれますか?
基本的な機械学習では、次の「経験則」を学びます。 a)データのサイズは、仮説セットのVCディメンションのサイズの少なくとも10倍にする必要があります。 b)N個の接続を持つニューラルネットワークのVC次元は約Nです。 ディープラーニングニューラルネットワークが数百万のユニットを言うとき、これは、たとえば数十億のデータポイントが必要であることを意味しますか?これに光を当ててください。

2
回帰モデルのVCディメンション
講義シリーズ「データから学ぶ」で、教授は、VCディメンションが、特定のモデルが粉砕できるポイントのモデルの複雑さを測定することについて言及しています。したがって、これは分類モデルで完全にうまく機能します。分類子がkポイントを効果的に粉砕できれば、VCディメンションの測定値はKになります。ただし、回帰モデルのVCディメンションをどのように測定するのかは明確ではありませんでした。 ?

1
SVMの汎化限界
サポートベクターマシンの一般化能力の理論的な結果、たとえば分類エラーの確率やこれらのマシンのVapnik-Chervonenkis(VC)次元の限界に興味があります。しかし、文献を読んでいると、同じような定期的な結果の一部は著者間で、特に特定の拘束力を維持するために必要な技術的条件に関して、わずかに異なる傾向があるという印象を受けました。 以下では、私は私が反復的に何らかの形で発見したことを主な汎化結果のSVMの問題と状態3の構造を思い出すだろう私は博覧会を通して、主に3つの参照を与えます。−−- 問題の設定: 独立して同一に分布した(iid)ペアデータサンプルがあるとしますここで、すべての、と。、および定義される分離超平面間の最小マージンを最大化するサポートベクターマシン(SVM)を構築します、および間の最も近い点。これにより、および定義された2つのクラスが分離されます。SVMに、スラック変数を導入することにより、ソフトマージンを介していくつかのエラーを許可させます。(xi,yi)1≤i≤n(xi,yi)1≤i≤n(x_i,y_i)_{1\leq i\leq n}iiixi∈Rpxi∈Rpx_i \in \mathbb{R}^pyi∈{−1,1}yi∈{−1,1}y_i \in \{-1,1\}m∗m∗m^*{x:w⋅x+b=0}{x:w⋅x+b=0}\{x : w \cdot x + b = 0\}w∈Rpw∈Rpw \in \mathbb{R}^pb∈Rb∈Rb \in \mathbb{R}x1,⋯,xnx1,⋯,xnx_1,\cdots,x_ny=−1y=−1y = -1y=1y=1y = 1ξ1,⋯,ξnξ1,⋯,ξn\xi_1,\cdots,\xi_n −−-しかし、説明の便宜のために、我々はカーネルの可能性を無視します。解のパラメーターとは、次の凸2次最適化プログラムを解くことによって得られます。w∗w∗w^*b∗b∗b^* minw,b,ξ1,⋯,ξns.t.:12∥w∥2+C∑i=1nξiyi(w⋅xi+b)≥1−ξiξi≥0,∀i∈{1,⋯,n},∀i∈{1,⋯,n}minw,b,ξ1,⋯,ξn12‖w‖2+C∑i=1nξis.t.:yi(w⋅xi+b)≥1−ξi,∀i∈{1,⋯,n}ξi≥0,∀i∈{1,⋯,n}\begin{align} \min_{w, \, b, \, \xi_1, \, \cdots, \, \xi_n} \; & \; \frac{1}{2}\|w\|^2 + C\sum_{i=1}^n\xi_i \\ \text{s.t.} \; : \; & \; …

2
ニューラルネットワークのVC次元の計算
固定非反復(DAG)トポロジー(ノードとエッジの固定セットですが、学習アルゴリズムはエッジの重みを変えることができます)の場合、入力ニューロンを持つを入力として、1つの出力に導きます(0から離れた特定の固定しきい値の場合、1に切り上げるか、-1に切り捨てる実際の値を出力します)。このネットワークのVC次元を計算(または概算)するための高速な方法はありますか?nnn{−1,1}n{−1,1}n\{-1,1\}^n ノート 私はCS.SEでもう少し正確なアルゴリズムの再公式化を求めました: ニューラルネットワークのVC次元を効率的に計算または近似する

3
VCディメンションが重要なのはなぜですか?
ウィキペディアは言う: VCディメンションは、アルゴリズムが粉砕できる最大のポイントセットのカーディナリティです。 たとえば、線形分類子のカーディナリティはn + 1です。私の質問は、なぜ私たちは気にするのですか?線形分類を行うほとんどのデータセットは非常に大きくなる傾向があり、多くのポイントが含まれています。

1
k最近傍のVC次元
kが使用されるトレーニングポイントの数と等しい場合、k最近傍アルゴリズムのVCディメンションは何ですか? コンテキスト:この質問は私が受講したコースで尋ねられ、そこに与えられた回答は0でした。しかし、なぜそうなのか理解していません。私の直感は、すべてのポイントが最初のモデルに従って1つのクラスに属し、別のクラスに属しているとラベル付けされるように、2つのモデル(つまり、トレーニングポイントのセット)を選択できるため、VCディメンションは1である必要があるということです2番目のモデルによれば、単一のポイントを粉砕することが可能であるはずです。私の推論のどこに間違いがありますか?

3
長方形のVC寸法
EthemAlpaydın著の「Introduction to Machine learning」には、軸整列長方形のVC次元は4であると記載されています。 誰かが長方形のVC寸法を説明して証明できますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.