deep-learning पर टैग किए गए जवाब

डीप लर्निंग मशीन लर्निंग का एक क्षेत्र है जिसका लक्ष्य विशेष तंत्रिका नेटवर्क आर्किटेक्चर का उपयोग करके जटिल कार्यों को सीखना है जो "गहरे" (कई परतों से मिलकर) हैं। इस टैग का उपयोग गहन शिक्षण आर्किटेक्चर के कार्यान्वयन के बारे में प्रश्नों के लिए किया जाना चाहिए। सामान्य मशीन लर्निंग प्रश्नों को "मशीन लर्निंग" टैग किया जाना चाहिए। प्रासंगिक सॉफ़्टवेयर लाइब्रेरी (जैसे, "केरस", "टेंसोरफ़्लो", "पाइटोरच", "फास्ट.आई" और आदि) के लिए एक टैग शामिल है।


3
केर एलएसटीएम को समझना
मैं LSTMs के बारे में अपनी समझ को समेटने की कोशिश कर रहा हूं और इस पोस्ट में यहां बताया गया है कि क्रिस्टोफर ओलाह ने केरस में लागू किया। मैं केरस ट्यूटोरियल के लिए जेसन ब्राउनली द्वारा लिखे गए ब्लॉग का अनुसरण कर रहा हूं । मैं मुख्य रूप …

15
E SAME ’और the VALID’ के बीच अंतर क्या है tf.nn.max_pool में टेंसोफ़्लो?
Difference SAME ’और the VALID’ के पेडिंग में क्या अंतर tf.nn.max_poolहै tensorflow? मेरी राय में, 'VALID' का अर्थ है कि जब हम अधिकतम पूल करते हैं तो किनारों के बाहर कोई भी शून्य गद्दी नहीं होगी। ए गाइड के अनुसार डीप लर्निंग के लिए अंकगणित के लिए , यह कहता …

2
केरस इनपुट स्पष्टीकरण: input_shape, इकाइयों, बैच_साइज, मंद, आदि
किसी भी Keras परत (के लिए Layerवर्ग), कर सकते हैं किसी को बताएं कि किस तरह के बीच अंतर को समझने के लिए input_shape, units, dim, आदि? उदाहरण के लिए डॉक्टर कहते unitsहैं कि एक परत का आउटपुट आकार निर्दिष्ट करें। नीचे दिए गए तंत्रिका जाल की छवि hidden layer1में …

11
TensorFlow में लॉग इन शब्द का अर्थ क्या है?
निम्नलिखित TensorFlow फ़ंक्शन में, हमें अंतिम परत में कृत्रिम न्यूरॉन्स की सक्रियता को खिलाना चाहिए। वह मैं समझता हूं। लेकिन मुझे समझ नहीं आता कि इसे लॉगिट्स क्यों कहा जाता है? क्या यह गणितीय कार्य नहीं है? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels = target_output )

3
मशीन लर्निंग मॉडल के लिए "नुकसान" और "सटीकता" की व्याख्या कैसे करें
जब मैंने थीनो या टेन्सरफ़्लो के साथ अपने तंत्रिका नेटवर्क को प्रशिक्षित किया, तो वे प्रति एपिसोड "हानि" नामक एक चर की रिपोर्ट करेंगे। मुझे इस चर की व्याख्या कैसे करनी चाहिए? अधिक नुकसान बेहतर या बुरा है, या मेरे तंत्रिका नेटवर्क के अंतिम प्रदर्शन (सटीकता) के लिए इसका क्या …

5
PyTorch में प्रशिक्षित मॉडल को बचाने का सबसे अच्छा तरीका?
मैं PyTorch में एक प्रशिक्षित मॉडल को बचाने के लिए वैकल्पिक तरीकों की तलाश कर रहा था। अब तक, मुझे दो विकल्प मिल गए हैं। एक मॉडल को बचाने के लिए torch.save () और एक मॉडल को लोड करने के लिए torch.load () । model.state_dict () एक प्रशिक्षित मॉडल को …

11
बाइनरी_क्रोसेंट्रॉपी और श्रेणीबद्ध_क्रोसेंट्रोपी एक ही समस्या के लिए अलग-अलग प्रदर्शन क्यों देते हैं?
मैं विषय द्वारा पाठ को वर्गीकृत करने के लिए एक सीएनएन को प्रशिक्षित करने की कोशिश कर रहा हूं। जब मैं बाइनरी क्रॉस-एंट्रोपी का उपयोग करता हूं तो मुझे ~ 80% सटीकता मिलती है, श्रेणीगत क्रॉस-एंट्रोपी के साथ मुझे ~ 50% सटीकता प्राप्त होती है। मुझे समझ नहीं आता कि …

8
Tf.nn.embedding_lookup फ़ंक्शन क्या करता है?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) मैं इस फ़ंक्शन के कर्तव्य को नहीं समझ सकता। क्या यह लुकअप टेबल की तरह है? प्रत्येक आईडी (आईडी में) के अनुरूप पैरामीटर वापस करने का मतलब है? उदाहरण के लिए, skip-gramमॉडल में यदि हम उपयोग करते हैं tf.nn.embedding_lookup(embeddings, train_inputs), तो प्रत्येक के लिए train_inputयह पत्र …

10
केरस, प्रत्येक परत का आउटपुट कैसे प्राप्त करें?
मैंने सीएनएन के साथ एक द्विआधारी वर्गीकरण मॉडल प्रशिक्षित किया है, और यहां मेरा कोड है model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) …

12
एक backpropagation तंत्रिका नेटवर्क में एक nonlinear सक्रियण फ़ंक्शन का उपयोग क्यों किया जाना चाहिए?
मैं तंत्रिका नेटवर्क पर कुछ चीजें पढ़ रहा हूं और मैं एकल परत तंत्रिका नेटवर्क के सामान्य सिद्धांत को समझता हूं। मैं एडिशनल लेयर्स की जरूरत को समझता हूं, लेकिन नॉनलाइनियर एक्टिविटी फंक्शन्स क्यों इस्तेमाल किए जाते हैं? यह सवाल इस एक के बाद है: बैकप्रॉपैजेशन में सक्रियण फ़ंक्शन का …

4
जटिल तंत्रिका नेटवर्क में 1 डी, 2 डी और 3 डी दृढ़ संकल्प की सहज समझ
क्या कोई कृपया स्पष्ट रूप से उदाहरणों के उपयोग के साथ 1 डी, 2 डी और 3 डी दृढ़ संकल्पों के बीच अंतर को समझा सकता है?

2
हमें PyTorch में zero_grad () कॉल करने की आवश्यकता क्यों है?
zero_grad()प्रशिक्षण के दौरान विधि को बुलाया जाना चाहिए। लेकिन प्रलेखन बहुत उपयोगी नहीं है | zero_grad(self) | Sets gradients of all model parameters to zero. हमें इस पद्धति को कॉल करने की आवश्यकता क्यों है?

2
करस में एक से कई और कई LSTM उदाहरण के लिए
मैं LSTM को समझने की कोशिश करता हूं और उन्हें केर के साथ कैसे बनाया जाए। मुझे पता चला, कि RNN चलाने के लिए मुख्य रूप से 4 मोड हैं (चित्र में 4 सही वाले) छवि स्रोत: कन्या करपाथी अब मुझे आश्चर्य है कि उनमें से प्रत्येक के लिए एक …

5
कैरस में "फ्लैटन" की भूमिका क्या है?
मैं Flattenकैरस में समारोह की भूमिका को समझने की कोशिश कर रहा हूं । नीचे मेरा कोड है, जो एक सरल दो-परत नेटवर्क है। यह आकार के 2-आयामी डेटा (3, 2) में लेता है, और आकार के 1-आयामी डेटा (1, 4) को आउटपुट करता है: model = Sequential() model.add(Dense(16, input_shape=(3, …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.