回答:
私はこれを試して同じ結果を得ました。
これは.abs
、単純なオプティマイザが最小値に追従するのが難しいためです。これは、勾配がゆっくりとゼロに近づく二乗差とは異なり、絶対差の勾配は、急激に反転する固定された大きさを持ち、オプティマイザが周囲で振動する傾向があるためです。最小点。基本的な勾配降下は、勾配の大きさ、および学習率に非常に敏感です。これは、本質的に、ステップサイズの勾配の乗数にすぎません。
最も簡単な修正は、学習率を下げることです。
optimizer = tf.train.GradientDescentOptimizer(0.5)
に
optimizer = tf.train.GradientDescentOptimizer(0.05)
また、さまざまなオプティマイザと遊びます。一部の人は、.abs
ベースの損失にうまく対処できます。