ReLU関数は通常、これは、マトリックスとベクトルの積など、他の関数の出力に要素ごとに適用されます。MLPの使用では、整流器ユニットは、おそらく読み出し層を除く他のすべての起動機能を置き換えます。ただし、必要に応じてそれらを組み合わせて使用できると思います。f(x)=max(0,x).
ReLUがニューラルネットワークを改善する1つの方法は、トレーニングを高速化することです。勾配の計算は非常に単純です(xの符号に応じて0または1のいずれか)。また、ReLUの計算ステップは簡単です。負の要素は0.0に設定されます。指数関数、乗算、除算はありません。
ロジスティックおよび双曲線正接ネットワークの勾配は、ReLUの正の部分よりも小さくなります。これは、トレーニングが進むにつれて肯定的な部分がより迅速に更新されることを意味します。ただし、これにはコストがかかります。左側の0勾配には、「デッドニューロン」と呼ばれる独自の問題があります。この問題では、勾配の更新によって入力値がReLUに設定され、出力が常にゼロになります。ELU(またはLeaky ReLU、PReLUなど)などの変更されたReLUユニットはこれを改善できます。
ddxReLU(x)=1∀x>0。対照的に、シグモイド単位の勾配は最大です。一方、運賃良好0付近の領域における入力の以降(約)。0.25tanh0.25<ddxtanh(x)≤1∀x∈[−1.31,1.31]