ニューラルネットワークのクロスエントロピーコスト関数


10

私はこのチュートリアルにあるクロスエントロピーコスト関数を見ています

C=1nx[ylna+(1y)ln(1a)]

正確には何を合計しているのですか?それはもちろん、上、あるが、とで変わらない。すべてのは、1つのへの入力です。 は、方程式の上の段落で、すべてのとの合計の関数として定義されています。 xyaxxaawx

また、はこの特定のニューロンへの入力数として定義されていますよね?「トレーニングデータの総数」と表現されています。n


編集:

私はそれを正しいと思いますか

C=1nx[ylna+(1y)ln(1a)]

ネットワーク全体のコスト関数になりますが、

C=[ylna+(1y)ln(1a)]

個々のニューロンのコストでしょうか?合計は各出力ニューロンを超えるべきではありませんか?

回答:


14

次に、クロスエントロピー損失を表す方法を示します

L(X,Y)=1ni=1ny(i)lna(x(i))+(1y(i))ln(1a(x(i)))

ここで、はトレーニングデータセットの入力例のセットであり、は、これらの入力例に対応するラベルのセットです。入力所与のニューラルネットワークの出力を表し。X={x(1),,x(n)}Y={y(1),,y(n)}a(x)x

各は0または1であり、出力のアクティブ化は通常、ロジスティックシグモイドを使用することにより、開いている間隔(0、1に制限されます。たとえば、1層ネットワーク(ロジスティック回帰と同等)の場合、アクティブ化はによって与えられここではa重み行列、はバイアスベクトルです。複数のレイヤーの場合、アクティベーション関数をように拡張できますここで、とは最初のレイヤーの重み行列とバイアス、y(i)a(x)

a(x)=11+eWxb
Wb
a(x)=11+eWz(x)bz(x)=11+eVxc
Vcz(x) ネットワークの非表示層のアクティブ化です。

Andrew Ngの機械学習コースで非常に効果的であることがわかったので、例を示すために(i)上付き文字を使用しました。例はマトリックスの列または行として例を表すことがありますが、考え方は同じです。


ありがとう!したがって、これにより、すべてのサンプルについて、ネットワーク全体のエラーの単一の数値が得られます。バックプロパゲーションでは、この関数の偏微分を最終層のウェイトマトリックスについて見つける必要があります。どうすればいいですか?
Adam12344 2015

バックプロップを実行することは、まったく別のワームの缶です!リンク先のページには、導関数の計算などの説明があり、stackoverflowおよびこのサイトのバックプロップについて多くの質問があります。少し調べてから、特にバックプロップについて別の質問を投稿してみてください。
lmjohns3 2015

これは、血みどろの詳細にクロスエントロピー損失:)と4層のニューラルネットワークとバックの小道具を経由理解バックプロパゲーションではあなたのための役に立つかもしれないcookedsashimi.wordpress.com/2017/05/06/...
YellowPillow

5

正確には何を合計しているのですか?

チュートリアルは実際にはかなり明示的です:

...はトレーニングデータのアイテムの合計数で、合計はすべてのトレーニング入力の合計です...n

チュートリアルで与えられた元の単一ニューロンのコスト関数(Eqn。57)にも下に添え字があり、これがこのことを示唆しています。単一のニューロンの場合、トレーニング例以外に合計するものはありません。これは、を計算ときにすでにすべての入力の重みを合計しです。xΣa

a=jwjxj.

同じチュートリアルの後半で、Nielsenは多層マルチニューロンネットワークのコスト関数の式を与えます(式63)。

C=1nxj[yjlnajL+(1yj)ln(1ajL)].

この場合、合計はトレーニング例()と出力層の個々のニューロン()の両方に適用されます。jxj


洞察をありがとう、1つの質問:あなたが定義した後者は、カテゴリーのクロスエントロピーではありませんよね?
Tommaso Guerrini 2017

彼はまた、チュートリアルで「yは0と1の間の中間値をとることができる」と述べましたが、彼が提供した機能はすべてyにあり、アクティベーション入力はありませんでした。どのようにしてst関数に中間値を実装できますか?
Feras

Nielsenのチュートリアルでは、単層パーセプトロンを示しています。a= \ sigma(\ sum_ {j} w_j x_j)は、出力層にシグモイド活性化関数があり、a = \ sum_ {j} w_j x_j
ARAT
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.