2.0 संगत जवाब : जबकि उपर्युक्त उत्तर में केरस मॉडल पर GPU का उपयोग करने के तरीके के बारे में विस्तार से बताया गया है, मैं यह बताना चाहता हूं कि यह कैसे किया जा सकता है Tensorflow Version 2.0
।
कितने जीपीयू उपलब्ध हैं, यह जानने के लिए हम नीचे दिए गए कोड का उपयोग कर सकते हैं:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
यह पता लगाने के लिए कि tf.debugging.set_log_device_placement(True)
आपके प्रोग्राम और टेंसर को कौन से डिवाइस असाइन किए गए हैं, आपके प्रोग्राम के पहले स्टेटमेंट के रूप में दिए गए हैं।
डिवाइस प्लेसमेंट लॉगिंग को सक्षम करने से किसी भी Tensor आवंटन या संचालन को मुद्रित किया जा सकता है। उदाहरण के लिए, नीचे दिया गया कोड:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
नीचे दिखाया गया आउटपुट देता है:
डिवाइस / जॉब में ओपिनिंग माटमूल: लोकलहोस्ट / रेप्लिका: 0 / टास्क: 0 / डिवाइस: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], शेप = (2, 2)। dtype = float32)
अधिक जानकारी के लिए, इस लिंक को देखें