でMNIST初心者チュートリアル、ステートメントがあります
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
tf.cast
基本的にオブジェクトがあるが、違いは何であるテンソルの種類を変更tf.reduce_mean
してはnp.mean
?
ここにドキュメントがありtf.reduce_mean
ます:
reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)
input_tensor
:削減するテンソル。数値型である必要があります。
reduction_indices
:削減する寸法。None
(デフォルト)の場合、すべての寸法が縮小されます。# 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.]
1Dベクトルの場合はのように見えますがnp.mean == tf.reduce_mean
、で何が起こっているのか理解できませんtf.reduce_mean(x, 1) ==> [1., 2.]
。tf.reduce_mean(x, 0) ==> [1.5, 1.5]
種類作るのは、平均するので、感知[1, 2]
と[1, 2]
ある[1.5, 1.5]
が、何をして起こっているのtf.reduce_mean(x, 1)
?