neural-network पर टैग किए गए जवाब

जैविक न्यूरॉन्स (मस्तिष्क कोशिकाओं) के सरलीकृत मॉडल से प्रेरित नेटवर्क संरचना। तंत्रिका नेटवर्क को प्रशिक्षित और अनुपयोगी तकनीकों द्वारा "सीखने" के लिए प्रशिक्षित किया जाता है, और इसका उपयोग अनुकूलन समस्याओं, सन्निकटन समस्याओं, वर्गीकरण पैटर्न और उसके संयोजन को हल करने के लिए किया जा सकता है।

5
Tf.nn.conv2d टेंसोफ़्लो में क्या करता है?
मैं tf.nn.conv2d यहाँ के बारे में टेंसरफ़्लो के डॉक्स को देख रहा था । लेकिन मैं यह नहीं समझ सकता कि यह क्या करता है या इसे हासिल करने की कोशिश कर रहा है। यह डॉक्स पर कहता है, # 1: फ़िल्टर को आकार के साथ 2-D मैट्रिक्स में समतल …

9
बैच के सामान्यीकरण और ड्रॉपआउट का आदेश?
विशेष रूप से TensorFlow कार्यान्वयन के संबंध में मूल प्रश्न था। हालांकि, उत्तर सामान्य रूप से कार्यान्वयन के लिए हैं। यह सामान्य उत्तर TensorFlow के लिए सही उत्तर भी है। TensorFlow (विशेष रूप से contrib.layers का उपयोग करके) में बैच के सामान्यीकरण और ड्रॉपआउट का उपयोग करते समय क्या मुझे …

4
Tensorflow Strides Argument
मैं स्ट्राइड को समझने की कोशिश कर रहा हूं tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d में तर्क। प्रलेखन बार-बार कहते हैं strides: एक किलों की एक सूची जिसमें लंबाई है = = 4. इनपुट टेंसर के प्रत्येक आयाम के लिए स्लाइडिंग विंडो की स्ट्राइड। मेरे प्रश्न हैं: 4+ पूर्णांक में से प्रत्येक क्या …

4
पाइटोरेक, क्रमिक तर्क क्या हैं
मैं PyTorch के प्रलेखन के माध्यम से पढ़ रहा हूं और एक उदाहरण मिला जहां वे लिखते हैं gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) जहाँ x एक प्रारंभिक चर था, जिसमें से y (3-वेक्टर) का निर्माण किया गया था। सवाल यह है कि ग्रेडिएंट टेंसर के 0.1, 1.0 और …

2
हमें PyTorch में zero_grad () कॉल करने की आवश्यकता क्यों है?
zero_grad()प्रशिक्षण के दौरान विधि को बुलाया जाना चाहिए। लेकिन प्रलेखन बहुत उपयोगी नहीं है | zero_grad(self) | Sets gradients of all model parameters to zero. हमें इस पद्धति को कॉल करने की आवश्यकता क्यों है?

3
Sparse_softmax_cross_entropy_with_logits और softmax_cross_entropy_with_logits में क्या अंतर है?
मैं हाल ही में tf.nn.sparse_softmax_cross_entropy_with_logits के पार आया और मैं यह नहीं जान पाया कि अंतर की तुलना क्या है tf.nn.softmax_crossmententy_with_logits । एकमात्र अंतर यह है कि प्रशिक्षण वैक्टर yको एक-गर्म एन्कोडेड होना चाहिए का उपयोग करते समयsparse_softmax_cross_entropy_with_logits ? एपीआई को पढ़ना, मुझे तुलना में कोई अन्य अंतर नहीं मिला …

16
आर्टिफिशियल न्यूरल नेटवर्क्स के बारे में जानने के लिए कुछ अच्छे संसाधन क्या हैं? [बन्द है]
बन्द है। यह प्रश्न स्टैक ओवरफ्लो दिशानिर्देशों को पूरा नहीं करता है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? सवाल को अपडेट करें ताकि यह स्टैक ओवरफ्लो के लिए विषय पर हो । 6 साल पहले बंद हुआ । इस प्रश्न …

2
करस में एक से कई और कई LSTM उदाहरण के लिए
मैं LSTM को समझने की कोशिश करता हूं और उन्हें केर के साथ कैसे बनाया जाए। मुझे पता चला, कि RNN चलाने के लिए मुख्य रूप से 4 मोड हैं (चित्र में 4 सही वाले) छवि स्रोत: कन्या करपाथी अब मुझे आश्चर्य है कि उनमें से प्रत्येक के लिए एक …

5
कैरस में "फ्लैटन" की भूमिका क्या है?
मैं Flattenकैरस में समारोह की भूमिका को समझने की कोशिश कर रहा हूं । नीचे मेरा कोड है, जो एक सरल दो-परत नेटवर्क है। यह आकार के 2-आयामी डेटा (3, 2) में लेता है, और आकार के 1-आयामी डेटा (1, 4) को आउटपुट करता है: model = Sequential() model.add(Dense(16, input_shape=(3, …


9
न्यूरल नेटवर्क्स के वज़न को यादृच्छिक संख्याओं के लिए क्यों शुरू किया जाना चाहिए? [बन्द है]
बन्द है। यह प्रश्न स्टैक ओवरफ्लो दिशानिर्देशों को पूरा नहीं करता है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? सवाल को अपडेट करें ताकि यह स्टैक ओवरफ्लो के लिए ऑन-टॉपिक हो । कल बंद हुआ । इस प्रश्न को सुधारें मैं …

4
मल्टी-लेयर परसेप्ट्रॉन (MLP) आर्किटेक्चर: छिपी हुई परतों की संख्या और छिपी हुई परत के आकार को चुनने के लिए मानदंड?
यदि हमारे पास 10 ईजेनवेक्टर हैं तो हमारे पास इनपुट लेयर में 10 न्यूरल नोड्स हो सकते हैं। यदि हमारे पास 5 आउटपुट क्लासेस हैं तो हमारे पास आउटपुट लेयर में 5 नोड्स हो सकते हैं। लेकिन एक एमएलपी में छिपे हुए लेयर की संख्या चुनने के लिए क्या मापदंड …

3
कैसे करे में दो परतों को समतल करना है?
मेरे पास दो परतों वाले तंत्रिका नेटवर्क का एक उदाहरण है। पहली परत में दो तर्क होते हैं और एक आउटपुट होता है। दूसरे को पहली परत के परिणामस्वरूप एक तर्क और एक अतिरिक्त तर्क लेना चाहिए। यह इस तरह दिखना चाहिए: x1 x2 x3 \ / / y1 / …

6
एक प्रशिक्षित केरस मॉडल लोड करें और प्रशिक्षण जारी रखें
मैं सोच रहा था कि क्या यह संभव है कि एक आंशिक रूप से प्रशिक्षित केरस मॉडल को बचाया जाए और फिर से मॉडल को लोड करने के बाद प्रशिक्षण जारी रखा जाए। इसका कारण यह है कि मेरे पास भविष्य में अधिक प्रशिक्षण डेटा होगा और मैं पूरे मॉडल …

6
PyTorch - सन्निहित ()
मैं जीथब (लिंक) पर एक LSTM भाषा मॉडल के इस उदाहरण से गुजर रहा था । यह सामान्य रूप से मेरे लिए बहुत स्पष्ट है। लेकिन मैं अभी भी समझने में संघर्ष कर रहा हूं कि कॉलिंग क्या contiguous()करता है, जो कोड में कई बार होता है। उदाहरण के लिए, …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.