畳み込みネットワークの普遍近似定理


14

普遍近似定理は、ニューラルネットワークの非常に有名な結果であり、基本的に、いくつかの仮定の下で、関数は任意の精度でニューラルネットワークによって均一に近似できると述べています。

畳み込みニューラルネットワークに適用される類似の結果はありますか?

回答:


7

これは興味深い質問ですが、畳み込みニューラルネットワークと見なされるものを適切に説明できていません

ネットワークたたみ込み操作を含む必要がある唯一の要件はありますか?畳み込み演算のみを含める必要がありますか?プーリング操作は許可されていますか?実際に使用されるたたみ込みネットワークは、多くの場合、完全に接続されたレイヤーを含む操作の組み合わせを使用します(完全に接続されたレイヤーが作成されるとすぐに、理論的なユニバーサル近似能力が得られます)。

DKWRK×D

  1. K×DDdk,dWk,dKD

  2. KKDkD(k+1)Dk

このようなたたみ込みネットワークは、完全に接続されたネットワークをシミュレートするため、同じ普遍的な近似機能を備えています。そのような例が実際にどれほど役立つかを考えるのはあなた次第ですが、私はそれがあなたの質問に答えることを望みます。


1
このような構成はかなり明白ですが、たとえばゼロパディング境界条件でのみ保持されます。たとえば、周期的な境界条件のより自然な要件では(オペレーターの翻訳を同変にする)、失敗します。
ジョナスアドラー

1
はい、この明白な構造は、畳み込みが入力にのみ適用されることを前提としています(パディングなし)。私が言ったように、許可されているものとあなたのCNNの定義にないものを指定しない限り、これは有効なアプローチであると私は思います。また、UATの実際的な影響はほとんどないので、CNNのさまざまなバージョンを指定し、それぞれについて同様のことを示して、これを深く掘り下げても意味がないかどうかはわかりません。
Jan Kukacka


3

Ding-Xuan Zhouによる論文「Deep Convolutional Neural NetworksのUniversality」を参照してください。これは、畳み込みニューラルネットワークが普遍的であること、つまり、ニューラルネットワークの深さが十分に大きい場合、任意の連続関数を任意の精度で近似できることを示しています。


これはゼロ境界条件を想定しているように思われるため、結果は前述のjan-kukackaと同じになるはずです
Jonas Adler
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.