15 次のように定義されているReLUアクティベーション関数の派生物は何ですか? ReLU(x)=max(0,x)ReLU(x)=max(0,x) 関数に不連続がある特別な場合はどうですか?x=0x=0 self-study neural-networks — トム・ヘイル ソース
17 導関数は次のとおりです。 f(x)={01if x<0if x>0f(x)={0if x<01if x>0 未定義。x=0x=0 x=0x=0 — ジム ソース 1 0011x = 0バツ=0 2 規則では、drdx = 1(x> 0) — neuroguy123 @TomHale使用しない理由 f(0 )= 12f(0)=12?実際の実装は別の問題であり、新しい質問に値します。これは単なる数学です。 — ジム 3 ちなみに、@ TomHale、Nooraz Rahmanのquora.com/…での回答を参照してください。"[...]私の見解では、組み込みライブラリ関数(例:)でx = 0の微分はスパースを確保するためにゼロになりますマトリックス...」tf.nn.relu() — ジム