TensorFlowでクロスエントロピー損失を選択する方法は?
ロジスティック回帰や多項ロジスティック回帰などの分類問題は、クロスエントロピー損失を最適化します。通常、クロスエントロピー層はソフトマックス層の後に続き、確率分布を生成します。 テンソルフローには、少なくとも1ダースの異なるクロスエントロピー損失関数があります。 tf.losses.softmax_cross_entropy tf.losses.sparse_softmax_cross_entropy tf.losses.sigmoid_cross_entropy tf.contrib.losses.softmax_cross_entropy tf.contrib.losses.sigmoid_cross_entropy tf.nn.softmax_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits ..。 どちらが二項分類にのみ機能し、どれがマルチクラス問題に適していますか?sigmoid代わりにsoftmaxいつ使用する必要がありますか?sparse機能は他の機能とどのように異なり、なぜそれだけなのsoftmaxですか? 関連する(より数学指向の)議論:KerasとTensorFlowのこれらすべてのクロスエントロピー損失の違いは何ですか?。