最近のニューラルネットワークの有効性にとって、バイアスノードがどれほど重要かを知りたいです。入力変数が少ない浅いネットワークでは重要になることが簡単に理解できます。ただし、ディープラーニングなどの最新のニューラルネットには、特定のニューロンがトリガーされるかどうかを決定するための入力変数が多数あることがよくあります。LeNet5やImageNetなどから単純に削除すると、実際に影響がありますか?
最近のニューラルネットワークの有効性にとって、バイアスノードがどれほど重要かを知りたいです。入力変数が少ない浅いネットワークでは重要になることが簡単に理解できます。ただし、ディープラーニングなどの最新のニューラルネットには、特定のニューロンがトリガーされるかどうかを決定するための入力変数が多数あることがよくあります。LeNet5やImageNetなどから単純に削除すると、実際に影響がありますか?
回答:
バイアスを削除するとパフォーマンスに確実に影響します。その理由は次のとおりです。
各ニューロンは単純なロジスティック回帰に似ており、ます。入力値に重みが乗算され、バイアスはシグモイド関数の初期の潰れのレベル(tanhなど)に影響し、望ましい非線形性が得られます。
たとえば、すべての入力ピクセルが黒のときにニューロンがするようにしたいと仮定します。重み関係なくバイアスがない場合、方程式が与えられると、ニューロンは常にます。
したがって、バイアス項を削除すると、ニューラルネットワークのパフォーマンスが大幅に低下します。
十分な評判があれば、@ NeilGの答えについてコメントしたいのですが...
これについては、ニール、あなたに同意しません。あなたは言う:
...すべての入力の平均的なアクティブ化。これは、多数の法則によってほぼ正常になります。
私はこれに反対し、多数の法則はすべての観測が互いに独立していることを必要とすると言います。これは、ニューラルネットのようなものには当てはまりません。各アクティベーションが正規分布している場合でも、1つの入力値が非常に高いと見なされると、他のすべての入力の確率が変わります。したがって、この場合の「観測」は独立ではなく、多数の法則は適用されません。
私があなたの答えを理解していない限り。