したがって、現在最も一般的に使用されているアクティベーション機能はRe-Luです。だから私はこの質問に答えましたニューラルネットワークの活性化機能の目的は何ですか?そして、答えを書いている間、それは私を驚かせましたが、Re-Luの近似の非線形関数はどのくらい正確にできますか
純粋な数学的定義によれば、確かに、急激な曲がりによる非線形関数ですが、x軸の正または負の部分のみに限定すると、それらの領域では線形になります。また、x軸全体を取り0 --> 90
、シグモイドで可能なように単一ノードの非表示レイヤーで正弦波()のような曲線関数を十分に近似できないという意味で、(厳密な数学的な意味ではなく)その線形も考えますアクティベーション機能。
では、NNでRe-Luが使用されていて、線形であるにもかかわらず、満足のいくパフォーマンスを提供している(私はRe-luの目的を尋ねていません)の背後にある直感は何ですか?または、シグモイドやtanhのような非線形関数がネットワークの途中でスローされることがありますか?
編集:@Ekaのコメントに従って、Re-Luはその能力をニューラルネットの深い層で機能する不連続性から導き出します。これは、Re-Luが、浅いNNではなく、Deep NNで使用する限り、良いことを意味しますか?
max(0,x)
ニューラルネットワークの深い層で動作する結果である可能性があります。彼らがディープ線形ネットワークを使用して非線形関数を計算したというopenaiの研究があります。ここにリンクがあります。blog.openai.com/ nonlinear