2
ReLUがアクティベーション機能として使用されるのはなぜですか?
アクティベーション関数はw * x + b、ニューラルネットワークのタイプの線形出力に非線形性を導入するために使用されます。 シグモイドのような活性化機能について、私は直感的に理解することができます。 バックプロパゲーション中に死んだニューロンを回避するReLUの利点を理解しています。しかし、出力が線形の場合にReLUがアクティベーション関数として使用される理由を理解できませんか? アクティベーション関数であることのすべてのポイントは、非線形性を導入しない場合、無効になりませんか?