gradient-descent पर टैग किए गए जवाब

4
पाइटोरेक, क्रमिक तर्क क्या हैं
मैं PyTorch के प्रलेखन के माध्यम से पढ़ रहा हूं और एक उदाहरण मिला जहां वे लिखते हैं gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) जहाँ x एक प्रारंभिक चर था, जिसमें से y (3-वेक्टर) का निर्माण किया गया था। सवाल यह है कि ग्रेडिएंट टेंसर के 0.1, 1.0 और …

2
हमें PyTorch में zero_grad () कॉल करने की आवश्यकता क्यों है?
zero_grad()प्रशिक्षण के दौरान विधि को बुलाया जाना चाहिए। लेकिन प्रलेखन बहुत उपयोगी नहीं है | zero_grad(self) | Sets gradients of all model parameters to zero. हमें इस पद्धति को कॉल करने की आवश्यकता क्यों है?

9
न्यूरल नेटवर्क्स के वज़न को यादृच्छिक संख्याओं के लिए क्यों शुरू किया जाना चाहिए? [बन्द है]
बन्द है। यह प्रश्न स्टैक ओवरफ्लो दिशानिर्देशों को पूरा नहीं करता है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? सवाल को अपडेट करें ताकि यह स्टैक ओवरफ्लो के लिए ऑन-टॉपिक हो । कल बंद हुआ । इस प्रश्न को सुधारें मैं …

5
प्रशिक्षण के दौरान नैन के सामान्य कारण
मैंने देखा है कि प्रशिक्षण के दौरान अक्सर होने वाली घटना NANको पेश किया जा रहा है। अक्सर कई बार ऐसा लगता है कि यह इनर-प्रोडक्ट / फुल-कनेक्टेड या कनवल्शन लेयर्स में वज़न बढ़ा रहा है। क्या ऐसा इसलिए हो रहा है क्योंकि ढाल की संगणना बह रही है? या …

1
आर: अपने स्वयं के ढाल बूस्टिंग एल्गोरिदम को लागू करना
मैं अपने स्वयं के ढाल बूस्टिंग एल्गोरिथ्म लिखने की कोशिश कर रहा हूं। मैं समझता हूं कि मौजूदा पैकेज जैसे हैं gbmऔर xgboost,मैं यह समझना चाहता था कि एल्गोरिथम कैसे काम करता है। मैं irisडेटा सेट का उपयोग कर रहा हूं , और मेरा परिणाम Sepal.Length(निरंतर) है। मेरा नुकसान फ़ंक्शन …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.