私は最近出会ったtf.nn.sparse_softmax_cross_entropy_with_logitsと私は違いが比較されているものを把握することはできませんtf.nn.softmax_cross_entropy_with_logits。
使用時にトレーニングベクトルy
をワンホットエンコードする必要がある唯一の違いはありsparse_softmax_cross_entropy_with_logits
ますか?
APIを読んでも、と比較して他の違いを見つけることができませんでしたsoftmax_cross_entropy_with_logits
。しかし、なぜ追加の機能が必要なのでしょうか。
ワンホットエンコードされたトレーニングデータ/ベクトルが提供されている場合softmax_cross_entropy_with_logits
、と同じ結果を生成するべきではありませんsparse_softmax_cross_entropy_with_logits
か?