ニューラルネットワークのVC次元の効率的な計算または近似
私の目標は、入力と出力で説明した次の問題を解決することです。 入力: 非循環有向グラフとM個のノード、N源、及び1つのシンク(M > N ≥ 1)。GGGmmmnnn111m>n≥1m>n≥1m > n \geq 1 出力: トポロジGのニューラルネットワークのVC次元(またはその近似)。GGG より詳細: 各ノードはシグモイドニューロンです。トポロジは固定されていますが、エッジの重みは学習アルゴリズムによって異なる場合があります。GGG 学習アルゴリズムは固定されています(後方伝播など)。 ソースノードは、入力ニューロンでのみから文字列を取ることができ、{ - 1 、1 } nは入力として。nnn{−1,1}n{−1,1}n\{-1,1\}^n シンクノードは出力ユニットです。それから、実際の値を出力し我々は切り上げることを1またはダウン- 1それは、より特定の固定のしきい値を超える場合δ離れてから0。[−1,1][−1,1][-1,1]111−1−1-1δδ\delta000 素朴なアプローチは、単にそれらを使ってネットワークを訓練しようとすることで、ますます多くのポイントを壊そうとすることです。ただし、この種のシミュレーション手法は効率的ではありません。 質問 この関数を計算するための効率的な方法はありますか(つまり、決定問題に変更されたときの:VC次元は入力パラメーターkよりも小さい?)?そうでない場合、硬度の結果はありますか?PP\mathsf{P}kkk この関数を計算または近似するための実用的な方法はありますか?近似値である場合、その精度について保証はありますか? ノート stats.SE についても同様の質問をしましたが、興味はありませんでした。