双曲線正接ニューロンとシグモイドニューロンの違いは何ですか?
ディープラーニングで使用される2つの一般的な活性化関数は、双曲線正接関数とシグモイド活性化関数です。双曲線正接はシグモイド関数の再スケーリングと変換にすぎないと理解しています。 tanh(z)=2σ(z)−1tanh(z)=2σ(z)−1\tanh(z) = 2\sigma(z) - 1。 これらの2つのアクティベーション関数の間に大きな違いはありますか、特に、一方が他方より好ましい場合はいつですか? (確率を推定する場合など)場合によっては、範囲の出力が範囲の出力よりも便利であることを理解しています。2つのアクティベーション機能を区別する便利さ以外の違いがあるかどうかを知りたいです。[0,1][0,1][0,1][−1,1][−1,1][-1,1]