neural-networks पर टैग किए गए जवाब

कृत्रिम तंत्रिका नेटवर्क (ANN) जैविक तंत्रिका नेटवर्क पर आधारित कम्प्यूटेशनल मॉडल का एक व्यापक वर्ग है। वे फीडफॉर्वर्ड एनएन (जिसमें "डीप" एनएनएस शामिल हैं), कंफ्यूशनल एनएन, रिकरंट एनएनएन आदि शामिल हैं।

1
डीप लर्निंग में डीप अवशिष्ट नेटवर्क के संदर्भ में वास्तव में एक अवशिष्ट लर्निंग ब्लॉक क्या है?
मैं इमेज रिकग्निशन के लिए डीप रेजिडेंशल लर्निंग पेपर पढ़ रहा था और मुझे 100% निश्चितता के साथ समझने में कठिनाइयाँ थीं कि अवशिष्ट ब्लॉक कम्प्यूटेशनल रूप से क्या कहता है। उनके पेपर पढ़ने से उनका आंकड़ा 2 है: जो बताता है कि एक अवशिष्ट ब्लॉक क्या माना जाता है। …

2
क्रॉस एन्ट्रापी लॉस फ़ंक्शन की विभिन्न परिभाषाएं
मैंने न्यूरल नेटवर्क्स के साथ तंत्रिका नेटवर्क के बारे में सीखना शुरू कर दिया है। डॉट कॉम ट्यूटोरियल। तीसरे अध्याय में विशेष रूप से क्रॉस एन्ट्रापी फ़ंक्शन के बारे में एक अनुभाग है, और क्रॉस एन्ट्रापी नुकसान को परिभाषित करता है: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + …

3
तंत्रिका नेटवर्क के लिए दिनांक / समय (चक्रीय डेटा) एन्कोडिंग
एक तंत्रिका नेटवर्क के लिए एक घटना की तारीख और समय को कैसे सांकेतिक शब्दों में बदलना है? मेरे पास निरंतर समय श्रृंखला नहीं है, लेकिन तारीख और समय के साथ कुछ घटनाएं हैं, और मैं किसी तरह की रुचि का विश्लेषण करता हूं। यह रुचि सुबह और शाम के …

2
Dep दीक्षांत समारोह के साथ गहराई में जाना ’में डेप्थोंकैट का संचालन कैसे होता है?
पठन संकल्पों के साथ गहराई से आगे बढ़ते हुए, मैं डेप्थोंकैट परत के पार आया , प्रस्तावित इंसेप्शन मॉड्यूल का एक बिल्डिंग ब्लॉक , जो अलग-अलग आकार के कई दसियों के आउटपुट को जोड़ता है। लेखक इसे "फ़िल्टर कॉन्टेनेशन" कहते हैं। मशाल के लिए एक कार्यान्वयन प्रतीत होता है , …

1
फिशर का सटीक परीक्षण और हाइपरजोमेट्रिक वितरण
मैं फिशर सटीक परीक्षण को बेहतर तरीके से समझना चाहता था, इसलिए मैंने निम्नलिखित खिलौना उदाहरण तैयार किया, जहां एफ और एम पुरुष और महिला से मेल खाते हैं, और n और y इस तरह से "सोडा की खपत" से मेल खाती है: > soda_gender f m n 0 5 …

3
गणितीय रूप से तंत्रिका नेटवर्क को चित्रमय मॉडल के रूप में मॉडलिंग करना
मैं एक तंत्रिका नेटवर्क और एक ग्राफिकल मॉडल के बीच गणितीय संबंध बनाने के लिए संघर्ष कर रहा हूं। ग्राफिकल मॉडल में यह विचार सरल है: संभाव्यता वितरण ग्राफ में क्लोन के अनुसार फैक्टर करता है, जिसमें संभावित रूप से घातीय परिवार होते हैं। क्या तंत्रिका नेटवर्क के लिए एक …

2
एमएलडी में सॉफ्टमैक्स फ़ंक्शन और थर्मोडायनेमिक्स में बोल्ट्जमैन वितरण के बीच संबंध कितना गहरा है?
सॉफ्टमैक्स फ़ंक्शन, जिसे आमतौर पर न्यूरल नेटवर्क में वास्तविक संख्याओं को संभावनाओं में परिवर्तित करने के लिए उपयोग किया जाता है, बोल्ट्जमन वितरण के समान ही फ़ंक्शन है, थर्मोडायनेमिक्स में दिए गए टी पर थर्मल संतुलन में कणों के संयोजन के लिए ऊर्जा पर संभाव्यता वितरण। मैं कुछ स्पष्ट विषम …

2
CNN में फ़िल्टर आकार, स्ट्राइड्स आदि चुनना?
मैं स्टैनफोर्ड के CS231N व्याख्यानों को देख रहा हूं और मैं CNN आर्किटेक्चर में कुछ मुद्दों पर अपना सिर लपेटने की कोशिश कर रहा हूं। मैं जो समझने की कोशिश कर रहा हूं वह यह है कि क्या कनवल्शन फिल्टर साइज़ को चुनने के लिए कुछ सामान्य दिशा-निर्देश हैं और …

3
एक अलौकिक तंत्रिका नेटवर्क में अंतिम सॉफ्टमैक्स परत से पहले गैर-रैखिकता
मैं अध्ययन कर रहा हूं और विवादास्पद तंत्रिका नेटवर्क को लागू करने की कोशिश कर रहा हूं, लेकिन मुझे लगता है कि यह सवाल बहुपरत अवधारणात्मक रूप से सामान्य रूप से लागू होता है। मेरे नेटवर्क में आउटपुट न्यूरॉन्स प्रत्येक वर्ग की सक्रियता का प्रतिनिधित्व करते हैं: सबसे सक्रिय न्यूरॉन …

4
क्या गहन शिक्षण मॉडल पैरामीट्रिक हैं? या गैर पैरामीट्रिक?
मुझे नहीं लगता कि सभी डीप लर्निंग मॉडल्स का एक ही जवाब हो सकता है। गहरे शिक्षण मॉडल में से कौन-से पैरामीट्रिक हैं और कौन-से गैर पैरामीट्रिक हैं और क्यों?

4
ऑटोएन्कोडर्स और टी-एसएनई के बीच अंतर क्या हैं?
जहाँ तक मुझे पता है, दोनों ऑटोएन्कोडर्स और टी-एसएनई का उपयोग नॉनलाइनियर डायनेमिटी में कमी के लिए किया जाता है। उनके बीच क्या अंतर हैं और मुझे एक बनाम दूसरे का उपयोग क्यों करना चाहिए?

1
नुकसान के कार्य का दूसरा क्रम सन्निकटन (गहरी शिक्षा पुस्तक, 7.33)
गुडफेलो की (2016) पुस्तक में गहन अध्ययन पर, उन्होंने L2 नियमितीकरण ( https://www.deeplearningbook.org/contents/ अनियमितization.html पृष्ठ 247) पर शीघ्र रोक लगाने की बात की । लागत समारोह का द्विघात अनुमान है:jjj J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) जहां हेसियन मैट्रिक्स (Eq। 7.33) है। क्या यह बीच का शब्द याद आ रहा है? टेलर विस्तार होना चाहिए: …

2
एफसी परतों के साथ सीएनएन का समापन क्यों होता है?
मेरी समझ से, सीएनएन में दो भाग होते हैं। पहला भाग (कन्ट / पूल लेयर) जो सुविधा निष्कर्षण करता है और दूसरा भाग (fc लेयर्स) जो सुविधाओं से वर्गीकरण करता है। चूंकि पूरी तरह से जुड़े हुए तंत्रिका जाल सबसे अच्छे क्लासीफायर नहीं हैं (यानी वे ज्यादातर एसवीएम और आरएफ …

3
संवादी तंत्रिका नेटवर्क स्केल संवेदनशीलता
उदाहरण के लिए, मान लें कि हम किसी व्यक्ति की तस्वीर के आधार पर एक आयु अनुमानक का निर्माण कर रहे हैं। नीचे हम दो लोग सूट में हैं, लेकिन पहला वाला दूसरे से स्पष्ट रूप से छोटा है। (स्रोत: tinytux.com ) इसमें बहुत सारी विशेषताएं हैं जो इसका मतलब …

3
अंतरिक्ष में एक मनमाना बिंदु की ओर एल 2 नियमितीकरण को कैसे लागू किया जाए?
यहाँ कुछ मैंने इयान गुडफेलो की पुस्तक डीप लर्निंग में पढ़ा है । तंत्रिका नेटवर्क के संदर्भ में, "L2 पैरामीटर मानक जुर्माना आमतौर पर वजन क्षय के रूप में जाना जाता है। यह नियमितीकरण रणनीति मूल [...] के करीब वजन ड्राइव करती है। अधिक सामान्यतः, हम किसी भी विशिष्ट बिंदु …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.