したがって、放射基底関数ニューラルネットワークを見ると、人々は1つの隠れ層の使用しか推奨していないことに気付きましたが、多層パーセプトロンニューラルネットワークでは、より多くの層が優れていると考えられます。
逆伝播のバージョンでRBFネットワークをトレーニングできることを考えると、より深いRBFネットワークが機能しない理由、またはRBFレイヤーを深層MLPネットワークの最後から2番目のレイヤーとして使用できない理由はありますか?(最後から2番目のレイヤーを考えていたので、以前のMLPレイヤーで学習した機能について基本的にトレーニングすることができました)
私はNNの専門家ではありませんが、私の印象では、標準のフィードフォワードNNでは、複数の非表示レイヤーは通常あまり追加されません。
—
GUNG -復活モニカ
これはNN研究の初期の頃でしたが、現在では通常、より多くのレイヤーがパフォーマンス向上のためのレシピになっています(ディープラーニング)。現在のお気に入りのアプローチは、可能な限り多くのレイヤーのスマートな初期化、飽和を避けるためのシグモイド活性化の代わりにドロップアウトとソフトマックスによる正則化だと思います。(しかし、私はテクニックに関して間違っているかもしれません)。一部の人々は、より良い結果を得るために繰り返し深化を使用していると思います。また、Googleは2014年にimageNetで100層のネットワークを使用して最先端を獲得しました。
—
user1646196