में MNIST शुरुआत ट्यूटोरियल , वहाँ बयान है
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
tf.cast
मूल रूप से वस्तु के दसियों प्रकार में परिवर्तन होता है, लेकिन क्या tf.reduce_mean
और क्या अंतर है np.mean
?
यहाँ डॉक्टर पर है tf.reduce_mean
:
reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)
input_tensor
: कम करने के लिए टेंसर। संख्यात्मक प्रकार होना चाहिए।
reduction_indices
: कम करने के आयाम। यदिNone
(अवक्षेप), सभी आयामों को कम करता है।# 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.]
1 डी वेक्टर के लिए, यह दिखता है np.mean == tf.reduce_mean
, लेकिन मुझे समझ में नहीं आता कि क्या हो रहा है tf.reduce_mean(x, 1) ==> [1., 2.]
। tf.reduce_mean(x, 0) ==> [1.5, 1.5]
मतलब की तरह, के बाद से [1, 2]
और [1, 2]
है [1.5, 1.5]
, लेकिन क्या हो रहा है tf.reduce_mean(x, 1)
?