例のように文字列名を指定するだけでなく、PythonクラスのようにLeakyRelu レイヤーを使用できます。通常のレイヤーと同様に機能します。
LeakyReLUをインポートしてモデルをインスタンス化する
from keras.layers import LeakyReLU
model = Sequential()
# here change your line to leave out an activation
model.add(Dense(90))
# now add a ReLU layer explicitly:
model.add(LeakyReLU(alpha=0.05))
たとえばactivation='relu'
、ソースコードで作成された単純なエイリアスにより、たとえば簡単に記述できるようになりました。
2番目の質問:
LeakyReluのパラメーターを調整するための最も一般的な設定は何ですか?そして、そのパフォーマンスがReluよりも大幅に優れている場合はどうでしょうか。
LeakyReLUの最適な設定を提供することはできません。恐らく、モデル/データによって異なります。
ReLUとLeakyReLUの違いは、それに流入する負の値をある程度保持する後者の能力ですが、前者は単に0未満のすべての値を0に設定します。理論的には、この拡張出力範囲は、それを使用するモデルにわずかに高い柔軟性。発明者はそれが有用であると考え、おそらくいくつかのベンチマークの場合であることを証明したと確信しています。ただし、実際には、一般的にReLUのみを使用します。これは、LeachyReLUの利点が一貫しておらず、ReLUの方が計算コストが低いため、モデルのトレーニングがわずかに速くなるためです。