具体的には、私はこの声明について疑問に思うだろう:
TensorFlowの将来のメジャーバージョンでは、デフォルトでbackpropのラベル入力に勾配が流れるようになります。
を使用すると表示されますtf.nn.softmax_cross_entropy_with_logits
。同じメッセージの中で、それを見ることを促しますtf.nn.softmax_cross_entropy_with_logits_v2
。私はドキュメントを調べましたが、それは次のことだけを述べていtf.nn.softmax_cross_entropy_with_logits_v2
ます:
バックプロパゲーションは、ロジットとラベルの両方に発生します。ラベルへの逆伝播を禁止するには、この関数にフィードする前にstop_gradientsにラベルテンソルを渡します。
反対に、tf.nn.softmax_cross_entropy_with_logits
「S:
バックプロパゲーションはロジットにのみ発生します。
件名が非常に新しいので(基本的なチュートリアルを進めようとしています)、これらのステートメントはあまり明確ではありません。私は逆伝播の浅い理解を持っていますが、前のステートメントは実際には何を意味しますか?バックプロパゲーションとラベルはどのように接続されていますか?そして、これtf.nn.softmax_cross_entropy_with_logits_v2
はオリジナルとは対照的に私がどのように働くかをどのように変えますか?
softmax_..._with_logits_v2
に動作しsoftmax_with_logits
ますか?(または、labels変数でtf.stop_gradientを使用することもあります。)