ニューラルネットワークのVC次元の効率的な計算または近似


19

私の目標は、入力と出力で説明した次の問題を解決することです。

入力:

非循環有向グラフM個のノード、N源、及び1つのシンク(M > N 1)。Gmn1m>n1

出力:

トポロジGのニューラルネットワークのVC次元(またはその近似)。G

より詳細

  • 各ノードはシグモイドニューロンです。トポロジは固定されていますが、エッジの重みは学習アルゴリズムによって異なる場合があります。G
  • 学習アルゴリズムは固定されています(後方伝播など)。
  • ソースノードは、入力ニューロンでのみから文字列を取ることができ、{ - 1 1 } nは入力として。n{1,1}n
  • シンクノードは出力ユニットです。それから、実際の値を出力し我々は切り上げることを1またはダウン- 1それは、より特定の固定のしきい値を超える場合δ離れてから0[1,1]11δ0

素朴なアプローチは、単にそれらを使ってネットワークを訓練しようとすることで、ますます多くのポイントを壊そうとすることです。ただし、この種のシミュレーション手法は効率的ではありません。


質問

この関数を計算するための効率的な方法はありますか(つまり、決定問題に変更されたときの:VC次元は入力パラメーターkよりも小さい?)?そうでない場合、硬度の結果はありますか?Pk

この関数を計算または近似するための実用的な方法はありますか?近似値である場合、その精度について保証はありますか?

ノート

stats.SE について同様の質問をしましたが、興味はありませんでした。


1
伝達関数をより明示的にすることができれば、質問がより自己完結する可能性があります。つまり、情報の伝播方法の実際の式を指定します。
-Suresh

回答:


9

2dslog(es)sde

それはあなたの質問に対する厳密な答えではありませんが、途中であなたを助けるかもしれません。結果はBaum and Haussler(1989)によるものです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.