ラベル用 y私∈ { 0 、1 }、パラメータ付きのベルヌーイモデルでのバイナリデータの可能性 θ です
L(θ)=Πi = 1んp (y私= 1 | θ)y私p (y私= 0 | θ)1 −y私
対数尤度は
ログL(θ)=Σi = 1んy私ログp (y= 1 | θ )+ (1 −y私)ログp (y= 0 | θ )
そして、バイナリのクロスエントロピーは
L (θ )= −1んΣi = 1んy私ログp (y= 1 | θ )+ (1 −y私)ログp (y= 0 | θ )
明らかに ログL(θ)=−nL(θ)。
最適値は θ∗ どちらの場合でもそれを観察できるため、両方で同じです θ これは最適ではありません。 1んL (θ )>1んL (θ∗)、それは 1ん> 0。(クロスエントロピーを最小化したいので、最適なθ∗ 最も少ない L (θ∗)。)
同様に、最適な値は θ∗ 同じです ログL(θ) そして L(θ) なぜなら ログ(x ) は単調増加関数です X ∈R+、私たちは書くことができます logL(θ)<logL(θ∗)。(可能性を最大化したいので、最適なθ∗ 最も多い L(θ∗)。)
一部のソースは省略します 1nクロスエントロピーから。明らかに、これが唯一の変更値のをL(θ)、ただしオプティマの場所ではないため、最適化の観点からは区別は重要ではありません。ただし、負の符号は最大化と最小化の違いであるため、明らかに重要です。