2
ニューラルネットワークのクロスエントロピーコスト関数
私はこのチュートリアルにあるクロスエントロピーコスト関数を見ています: C=−1n∑x[ylna+(1−y)ln(1−a)]C=−1n∑x[ylna+(1−y)ln(1−a)]C = -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] 正確には何を合計しているのですか?それはもちろん、上、あるが、とで変わらない。すべてのは、1つのへの入力です。 は、方程式の上の段落で、すべてのとの合計の関数として定義されています。 xxxyyyaaaxxxxxxaaaaaawwwxxx また、はこの特定のニューロンへの入力数として定義されていますよね?「トレーニングデータの総数」と表現されています。nnn 編集: 私はそれを正しいと思いますか C=−1n∑x[ylna+(1−y)ln(1−a)]C=−1n∑x[ylna+(1−y)ln(1−a)]C= -\frac{1}{n} \sum_x [y \ln a+(1−y)\ln(1−a)] ネットワーク全体のコスト関数になりますが、 C=[ylna+(1−y)ln(1−a)]C=[ylna+(1−y)ln(1−a)]C = [y \ln a+(1−y)\ln(1−a)] 個々のニューロンのコストでしょうか?合計は各出力ニューロンを超えるべきではありませんか?