conv-neural-network पर टैग किए गए जवाब

संवादात्मक तंत्रिका नेटवर्क एक प्रकार का तंत्रिका नेटवर्क है जिसमें परतों के बीच संभावित कनेक्शन के केवल सबसेट ओवरलैपिंग क्षेत्र बनाने के लिए मौजूद हैं। वे आमतौर पर दृश्य कार्यों के लिए उपयोग किए जाते हैं।

2
क्या समीचीनता से परे तंत्रिका नेटवर्क में संकेतन के गणितीय कारण हैं?
कनफ्यूजनियल न्यूरल नेटवर्क (CNN) में प्रत्येक चरण पर वेट का मैट्रिक्स अपनी पंक्तियों और कॉलम को कर्नेल मैट्रिक्स को प्राप्त करने के लिए फ़्लिप करता है, कनवल्शन के साथ आगे बढ़ने से पहले। यह ह्यूगो लॉरोले द्वारा वीडियो की एक श्रृंखला पर समझाया गया है : छिपे हुए मानचित्रों की …

2
छवि पहचान करने वाले तंत्रिका नेटवर्क के संदर्भ में "क्रमपरिवर्तन अपरिवर्तनीय" का क्या अर्थ है?
मैंने MNIST अंक पहचान कार्य का एक शब्द "क्रमपरिवर्तन अपरिवर्तनीय" संस्करण देखा है। इसका क्या मतलब है?

2
सीएनएन जेवियर वजन आरंभीकरण
कुछ ट्यूटोरियल्स में मैंने पाया कि "जेवियर" वेट इनिशियलाइज़ेशन (पेपर: डीप फीडफोरवर्ड न्यूरल नेटवर्क के प्रशिक्षण की कठिनाई को समझना ) न्यूरल नेटवर्क के वज़न को कम करने का एक कारगर तरीका है। पूरी तरह से जुड़ी हुई परतों के लिए उन ट्यूटोरियल में अंगूठे का एक नियम था: वीa …

3
विश्वव्यापी नेटवर्क के लिए सार्वभौमिक सन्निकटन प्रमेय
सार्वभौमिक सन्निकटन प्रमेय तंत्रिका नेटवर्क के लिए एक बहुत प्रसिद्ध परिणाम है, मूल रूप से यह कहते हुए कि कुछ मान्यताओं के तहत, एक फ़ंक्शन को किसी भी सटीकता के भीतर तंत्रिका नेटवर्क द्वारा समान रूप से अनुमानित किया जा सकता है। क्या कुछ अनुरूप परिणाम होता है जो कन्वेन्शनल …

2
अधिकतम गति बाधा क्या है? यह कन्वेंशनल न्यूरल नेटवर्क्स में कैसे उपयोगी है?
यहाँ एक केरस कोड नमूना है जो इसका उपयोग करता है: from keras.constraints import max_norm model.add(Convolution2D(32, 3, 3, input_shape=(3, 32, 32), border_mode='same', activation='relu', kernel_constraint=max_norm(3)))

2
Google इंसेप्शन मॉडल: क्यों कई सॉफ्टमैक्स है?
Google इंसेप्शन मॉडल की टोपोलॉजी यहां पाई जा सकती है: Google इंसेप्शन नेटवॉर्क मैंने देखा कि इस मॉडल में 3 सॉफ्टमैक्स परत है (# 154, # 152, # 145), और उनमें से 2 इस मॉडल के जल्दी भागने के कुछ प्रकार हैं। मुझे जो पता है, सॉफ्टमैक्स लेयर अंतिम आउटपुट …

3
क्या तंत्रिका नेटवर्क (जैसे, दृढ़ तंत्रिका नेटवर्क) में नकारात्मक भार हो सकते हैं?
जब हम सभी सक्रियण परतों के लिए ReLU का उपयोग करते हैं, तो गहन अवक्षेपण तंत्रिका नेटवर्क के लिए नकारात्मक भार (पर्याप्त अवधि के बाद) होना संभव है?

5
क्या तंत्रिका जाल / गहन सीखने को डिजाइन करने और लागू करने के लिए एक दृश्य उपकरण है? [बन्द है]
बन्द है। यह सवाल ऑफ टॉपिक है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? प्रश्न को अपडेट करें ताकि यह क्रॉस मान्य के लिए विषय पर हो । 10 महीने पहले बंद हुआ । मुझे पता है कि मशीन सीखने और …

4
सीएनएन में, अपप्लिमेंटिंग कर रहे हैं और कनवल्शन को ट्रांसप्लांट कर रहे हैं?
जब आप "डिकॉनवोल्यूशन" (<- एक अच्छा शब्द नहीं है, लेकिन मुझे यहाँ इसका इस्तेमाल करते हैं) "" अपसम्प्लिंग "और" ट्रांज़ोज़ कनवल्शन "दोनों शब्दों का उपयोग किया जाता है। मूल रूप से, मैंने सोचा था कि उनका मतलब एक ही है, लेकिन मुझे लगता है कि इन लेखों को पढ़ने के …

1
डीप लर्निंग में डीप अवशिष्ट नेटवर्क के संदर्भ में वास्तव में एक अवशिष्ट लर्निंग ब्लॉक क्या है?
मैं इमेज रिकग्निशन के लिए डीप रेजिडेंशल लर्निंग पेपर पढ़ रहा था और मुझे 100% निश्चितता के साथ समझने में कठिनाइयाँ थीं कि अवशिष्ट ब्लॉक कम्प्यूटेशनल रूप से क्या कहता है। उनके पेपर पढ़ने से उनका आंकड़ा 2 है: जो बताता है कि एक अवशिष्ट ब्लॉक क्या माना जाता है। …

2
Dep दीक्षांत समारोह के साथ गहराई में जाना ’में डेप्थोंकैट का संचालन कैसे होता है?
पठन संकल्पों के साथ गहराई से आगे बढ़ते हुए, मैं डेप्थोंकैट परत के पार आया , प्रस्तावित इंसेप्शन मॉड्यूल का एक बिल्डिंग ब्लॉक , जो अलग-अलग आकार के कई दसियों के आउटपुट को जोड़ता है। लेखक इसे "फ़िल्टर कॉन्टेनेशन" कहते हैं। मशाल के लिए एक कार्यान्वयन प्रतीत होता है , …

2
CNN में फ़िल्टर आकार, स्ट्राइड्स आदि चुनना?
मैं स्टैनफोर्ड के CS231N व्याख्यानों को देख रहा हूं और मैं CNN आर्किटेक्चर में कुछ मुद्दों पर अपना सिर लपेटने की कोशिश कर रहा हूं। मैं जो समझने की कोशिश कर रहा हूं वह यह है कि क्या कनवल्शन फिल्टर साइज़ को चुनने के लिए कुछ सामान्य दिशा-निर्देश हैं और …

3
एक अलौकिक तंत्रिका नेटवर्क में अंतिम सॉफ्टमैक्स परत से पहले गैर-रैखिकता
मैं अध्ययन कर रहा हूं और विवादास्पद तंत्रिका नेटवर्क को लागू करने की कोशिश कर रहा हूं, लेकिन मुझे लगता है कि यह सवाल बहुपरत अवधारणात्मक रूप से सामान्य रूप से लागू होता है। मेरे नेटवर्क में आउटपुट न्यूरॉन्स प्रत्येक वर्ग की सक्रियता का प्रतिनिधित्व करते हैं: सबसे सक्रिय न्यूरॉन …

5
सीएनएन में फेस / नॉन-फेस डिटेक्शन में बाइनरी डिटेक्शन के लिए मुझे किस नुकसान का उपयोग करना चाहिए?
मैं फेस / नॉन-फेस बाइनरी डिटेक्शन को प्रशिक्षित करने के लिए डीप लर्निंग का उपयोग करना चाहता हूं, मुझे किस नुकसान का उपयोग करना चाहिए, मुझे लगता है कि यह सिग्मोइडक्रॉसइंटरप्रॉपली या हिंग-लॉस है । क्या यह सही है, लेकिन मुझे भी आश्चर्य है कि मुझे सॉफ्टमैक्स का उपयोग करना …

2
एफसी परतों के साथ सीएनएन का समापन क्यों होता है?
मेरी समझ से, सीएनएन में दो भाग होते हैं। पहला भाग (कन्ट / पूल लेयर) जो सुविधा निष्कर्षण करता है और दूसरा भाग (fc लेयर्स) जो सुविधाओं से वर्गीकरण करता है। चूंकि पूरी तरह से जुड़े हुए तंत्रिका जाल सबसे अच्छे क्लासीफायर नहीं हैं (यानी वे ज्यादातर एसवीएम और आरएफ …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.