ニューラルネットワークでオートエンコーダを実装する場合、ほとんどの人はシグモイドをアクティベーション関数として使用します。
代わりにReLUを使用できますか?(ReLUには上限に制限がないため、基本的に、シグモイドが使用されるときの自動エンコーダーの制限された基準とは異なり、入力画像は1より大きいピクセルを持つことができます)。
ニューラルネットワークでオートエンコーダを実装する場合、ほとんどの人はシグモイドをアクティベーション関数として使用します。
代わりにReLUを使用できますか?(ReLUには上限に制限がないため、基本的に、シグモイドが使用されるときの自動エンコーダーの制限された基準とは異なり、入力画像は1より大きいピクセルを持つことができます)。
回答:
2013年7月からのディスカッションスレッドは次のとおりです。これには問題がある可能性がありますが、それは可能です。
ÇağlarGülçehre(Yoshua Bengioのラボ)は、Knowledge Mattersで次の手法をうまく使用したと述べています:最適化のための事前情報の重要性:
通常どおり最初のDAEをトレーニングしますが、非表示層に整流器を使用
a1(x) = W1 x + b1 h1 = f1(x) = rectifier(a1(x)) g1(h1) = {sigmoid}(V1 h1 + c1)
します。g1(f1(corrupt(x)))とxを比較して、クロスエントロピーまたはMSE損失を最小限に抑えます。シグモイドはデータによってはオプションです。ノイズMSE損失でF1整流器と使用softplus再構成単位の前に添加して第2のDAEを訓練:
h2 = f2(h1) = rectifier(W2 h1 + b2) g2(h2) = softplus(V2 h2 + c2)
最小
ザビエルGlorotは、またBengioラボから、彼は交換以外は同じでしたと(おそらく「活性値の」ペナルティの両方で?)ドメイン適応のため大規模な感情分類:ディープラーニングアプローチ(ICML 2011)およびディープスパース整流器ニューラルネットワーク(AISTATS 2011)。