ニューラルネットワークの普遍近似定理は、任意のアクティブ化関数(シグモイド、ReLU、Softmaxなど)に適用されますか、それともシグモイド関数に限定されますか?
アップデート:コメント欄でアウトとして島尾ポイントは、それは絶対にするために保持していない任意の機能。それでは、どのクラスのアクティベーション関数が保持されますか?
1
私はそれがあなたがリストしたものすべてに当てはまると信じていますが、任意の活性化関数には当てはまりません(f(x)= 0を考慮してください)
—
shimao
Cybenko(1989)の論文を読んでください。関数はコンパクトでなければなりません。つまり、R ^ nのコンパクトサブセットで定義する必要があります
—
Snehanshu Saha
不連続性が有限である場合は、隠れ層をさらに追加することによっても処理できます。SBAFでも機能します。
—
Snehanshu Saha