私の先生は、クロスエントロピーの2次導関数が常に正であることを証明したので、クロスエントロピーを使用するニューラルネットワークのコスト関数は凸になります。これは本当ですか?私はいつもANNのコスト関数が非凸であることを学んできたので、これについてはかなり混乱しています。誰かがこれを確認できますか?大いに感謝する! http://z0rch.com/2014/06/05/cross-entropy-cost-function
私の先生は、クロスエントロピーの2次導関数が常に正であることを証明したので、クロスエントロピーを使用するニューラルネットワークのコスト関数は凸になります。これは本当ですか?私はいつもANNのコスト関数が非凸であることを学んできたので、これについてはかなり混乱しています。誰かがこれを確認できますか?大いに感謝する! http://z0rch.com/2014/06/05/cross-entropy-cost-function
回答:
@ngiannが言ったこと、そして非公式に、非表示層のニューロンを並べ替え、隣接する層の重みで同じ置換を行う場合、損失は変化しません。
したがって、重みの関数としてゼロ以外のグローバルミニマがある場合、ウェイトの順列が別のグローバルミニマムを与えるため、一意ではありません。したがって、関数は凸ではありません。
すべての2次偏微分(ヘッセ行列)の行列は、正の半正定行列でも負の半定定行列でもありません。2次導関数は行列なので、どちらでもない可能性があります。