क्या सामान्य उपभोक्ता ग्रेड GPU पर प्रशिक्षित होने वाले तंत्रिका नेटवर्क के आकार के बारे में अंगूठे का अनुमान देना संभव है ? उदाहरण के लिए:
गतिवान (सुदृढीकरण) का उभार कागज न्यूरॉन्स की tanh सक्रियण का उपयोग करके नेटवर्क प्रशिक्षण देता है। उनके पास प्लानर वॉकर के लिए 300,200,100 इकाइयों के साथ एक 3 परत एनएन है । लेकिन वे हार्डवेयर और समय की रिपोर्ट नहीं करते ...
लेकिन क्या अंगूठे का एक नियम विकसित किया जा सकता है? इसके अलावा सिर्फ वर्तमान अनुभवजन्य परिणामों पर आधारित है, उदाहरण के लिए:
सिग्मॉइड सक्रियण का उपयोग करने वाली एक्स इकाइयां 1060 पर प्रति घंटे वाई लर्निंग पुनरावृत्तियों को चला सकती हैं।
या बी के बजाय सक्रियण फ़ंक्शन का उपयोग करने से प्रदर्शन में कई बार कमी आती है।
यदि कोई छात्र / शोधकर्ता / जिज्ञासु मन इन नेटवर्क के साथ खेलने के लिए GPU खरीदने जा रहा है, तो आप कैसे तय करते हैं कि आपको क्या मिलेगा? एक 1060 जाहिरा तौर पर प्रवेश स्तर के बजट विकल्प है, लेकिन आप कैसे मूल्यांकन कर सकते हैं यदि यह उच्च पावर डेस्कटॉप बनाने के बजाय सिर्फ एक भद्दा नेटबुक प्राप्त करने के लिए चालाक नहीं है और सहेजे गए डॉलर को ऑन-डिमांड क्लाउड बुनियादी ढांचे पर खर्च करना है।
प्रश्न के लिए प्रेरणा: मैंने सिर्फ 1060 खरीदे और (चतुर, बाद में प्रश्न पूछने के लिए) हुह आश्चर्यचकित था कि क्या मुझे केवल $ ही रखना चाहिए था और Google क्लाउड खाता बनाया था। और अगर मैं अपने मास्टर थीसिस सिमुलेशन को GPU पर चला सकता हूं।