ニューラルネットワークのVC次元の計算


11

固定非反復(DAG)トポロジー(ノードとエッジの固定セットですが、学習アルゴリズムはエッジの重みを変えることができます)の場合、入力ニューロンを持つを入力として、1つの出力に導きます(0から離れた特定の固定しきい値の場合、1に切り上げるか、-1に切り捨てる実際の値を出力します)。このネットワークのVC次元を計算(または概算)するための高速な方法はありますか?n{1,1}n


ノート

私はCS.SEでもう少し正確なアルゴリズムの再公式化を求めました:

ニューラルネットワークのVC次元を効率的に計算または近似する


明確にするために:ニューロンの隠れた層はありますか?あなたの質問では、非表示のレイヤーがあるかどうかを明示的に指定していません。
Andrew

@Andrewメソッドはどちらの場合でも機能するはずです。非表示のレイヤーは線形分類器ではないため、実行するのは簡単です。ですから、私は重要なケースにもっと興味があります。2つ以上の非表示レイヤーがあると仮定します(ただし、この方法はより簡単なので、少ない方でも機能するはずです)。
Artem Kaznatcheev 2012

回答:


6

ニューラルネットでVCディメンションを計算するための一般的な式を探しているときに、あなたの投稿を偶然見つけましたが、明らかにありません。どうやら、特定の狭いケースにのみ適用される異種のVC方程式の寄せ集めしかありません。注意:これは、私がほとんど理解していないVCディメンションの概念に基づいて、ほとんど理解していない古い研究に基づいています。それにもかかわらず、ピーターL.バートレットとウォルフガングマースによるこの論文をざっと読むのは価値があるかもしれません1VC次元の計算可能性について。13の定理でVCの式を導き出すためにどのように非常に長い時間をかけているかに注意してください。これらの前提条件は、アクティブ化関数の演算子の数から、許可されるジャンプのタイプ、ニューロンの数とその位置、入力のビット深度などに及びます。これらの散在する「問題」の多くが存在するため、式は特定の狭いクラスの問題に対してのみ有用です。さらに悪いことに、彼らは定理5と8でシグモイド活性化関数がVCの数値を計算することが特に難しいことを指摘しています。pp。6-7に彼らは書く:

「区分的多項式活性化関数を持つネットワークのVC次元はよく理解されていますが、ニューラルネットワークのほとんどのアプリケーションはロジスティックシグモイド関数またはガウス動径基底関数を使用します。残念ながら、有限数の関数を使用してこのような関数を計算することはできません。定理5にリストされている算術演算。ただし、KarpinskiとMacintyre [KarpinskiとMacintyre、1997]は、定理5を拡張して指数を計算できるようにしました。証明は同じ考え方を使用していますが、連立方程式の解の数の制限はかなり難しい」

また、「ニューラルネットワークのVCディメンションの境界:進行状況と展望」という有望なタイトルでこの論文を見つけました2数学の多くは頭を悩ませており、私は翻訳スキルの不足を克服するのに十分な時間は流用しませんでしたが、それは本の第2版より前のことなので、地球を破壊するような解決策を提供しないと思います。そして、同じ著者による後の作品を引用するマース。おそらく過去20年間の研究により、ニューラルネットのVCディメンションの計算可能性が向上したと思われますが、私が見つけたほとんどの参考文献は90年代中頃のものであるようです。どうやら当時、このテーマに関する一連の作業があり、それはそれ以来衰退しました。最近の奨学金によって機能が90年代のそれをはるかに超えて拡張されていない場合は、誰かがより広く適用可能なソリューションをすぐに見つけて、ニューラルネットでVCディメンションの計算を開始できることを願っています。すみません、できませんでした

1バートレット、ピーターL.、およびマース、ウォルフガング、2003年、「ニューラルネットのヴァップニックチェルボネンキスの次元」、1188〜1192ページ、 『脳理論とニューラルネットワークのハンドブック』、Arbib、Michael A. ed。MIT Press:マサチューセッツ州ケンブリッジ

2 Karpinski、Marek and Macintyre、Angus、1995、 "Bounding VC-Dimension for Neural Networks:Progress and Prospects"、pp。337–341 in Proceedings in the 2nd European Conference on Computational Learning Theory、Barcelona、Spain。Vitanyi、P。ed。人工知能の講義ノート、No。904。シュプリンガー:ベルリン。


0

これが最新の作品です:http : //jmlr.org/papers/v20/17-612.html

基本的に、ネットワークとの重み、層、及びrelu賦活以下: いくつかの定数の及び。WL

cWLlog(W/L)VCCWLlog(WL)
cC

仕事の妥当性を考えると、私はそれが便利な限界を与えると思います。しかし、完全には読んでいないため、境界(特に定数と)の厳密さはわかりません。cC

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.