損失関数の2次近似(ディープラーニングブック、7.33)


11

ディープラーニングに関するGoodfellow(2016)の本で、彼はL2正則化への早期停止の同等性について話しました(https://www.deeplearningbook.org/contents/regularization.html 247ページ)。

コスト関数j 2次近似は、次の式で与えられます。

J^(θ)=J(w)+12(ww)TH(ww)

H

f(w+ϵ)=f(w)+f(w)ϵ+12f(w)ϵ2

回答:


15

彼らは最適な重みについて話します:

重み経験的に最適な値の近傍で、2次近似を使用してコスト関数をモデル化できます。Jw

その時点で、1次導関数はゼロです。したがって、中間項は省略されます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.