np.meanとtf.reduce_meanの違いは何ですか?
でMNIST初心者チュートリアル、ステートメントがあります accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.cast基本的にオブジェクトがあるが、違いは何であるテンソルの種類を変更tf.reduce_meanしてはnp.mean? ここにドキュメントがありtf.reduce_meanます: reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None) input_tensor:削減するテンソル。数値型である必要があります。 reduction_indices:削減する寸法。None(デフォルト)の場合、すべての寸法が縮小されます。 # 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.] 1Dベクトルの場合はのように見えますがnp.mean == tf.reduce_mean、で何が起こっているのか理解できませんtf.reduce_mean(x, 1) ==> [1., 2.]。tf.reduce_mean(x, 0) ==> [1.5, 1.5]種類作るのは、平均するので、感知[1, 2]と[1, 2]ある[1.5, 1.5]が、何をして起こっているのtf.reduce_mean(x, 1)?