convolution पर टैग किए गए जवाब

कन्वेंशन दो फ़ंक्शन पर एक फ़ंक्शन-वैल्यू ऑपरेशन है f तथा g: f(τ)g(tτ)dτ। अक्सर स्वतंत्र यादृच्छिक चर की राशि का घनत्व प्राप्त करने के लिए उपयोग किया जाता है। इस टैग का उपयोग डिकॉनवोल्यूशन के व्युत्क्रम संचालन के लिए भी किया जाना चाहिए। इस टैग का उपयोग दृढ़ नेटवर्क नेटवर्क के लिए न करें।

6
तंत्रिका नेटवर्क में 1x1 दृढ़ संकल्प का क्या अर्थ है?
मैं वर्तमान में Udacity डीप लर्निंग ट्यूटोरियल कर रहा हूं। पाठ 3 में, वे 1x1 दृढ़ संकल्प के बारे में बात करते हैं। Google इंसेप्शन मॉड्यूल में 1x1 कनवल्शन का उपयोग किया जाता है। मुझे यह समझने में परेशानी हो रही है कि 1x1 का दोषी क्या है। मैंने भी …

6
सीएनएन में स्थानीय प्रतिक्रिया सामान्यीकरण का महत्व
मैंने पाया है कि Imagenet और अन्य बड़े CNN स्थानीय प्रतिक्रिया सामान्यीकरण परतों का उपयोग करते हैं। हालाँकि, मुझे उनके बारे में अधिक जानकारी नहीं मिल सकती है। वे कितने महत्वपूर्ण हैं और उनका उपयोग कब किया जाना चाहिए? से http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "स्थानीय प्रतिक्रिया सामान्यीकरण परत स्थानीय इनपुट क्षेत्रों पर …

4
कंप्यूटर विज़न और कनफ्यूज़नल न्यूरल नेटवर्क में ट्रांसलेशन अदर्शन क्या है?
मेरे पास कंप्यूटर विज़न बैकग्राउंड नहीं है, फिर भी जब मैंने कुछ इमेज प्रोसेसिंग और कन्वेन्शनल न्यूरल नेटवर्क से संबंधित आर्टिकल और पेपर पढ़े, तो मुझे लगातार टर्म translation invariance, या translation invariant। या मैं एक बहुत पढ़ा है कि दृढ़ संकल्प ऑपरेशन प्रदान करता है translation invariance!! इसका क्या …

10
दो यादृच्छिक चर का योग एक आक्षेप क्यों है?
लंबे समय तक मुझे समझ में नहीं आया कि दो यादृच्छिक चर का "योग" उनका दोष क्यों है , जबकि और का मिश्रण घनत्व फ़ंक्शन योगf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); अंकगणित का योग और उनका संकल्प नहीं। सटीक वाक्यांश "दो यादृच्छिक चर का योग" 146,000 बार Google में दिखाई देता है, और निम्नानुसार अण्डाकार …

2
संवादात्मक तंत्रिका नेटवर्क: आउटपुट में केंद्रीय न्यूरॉन्स का प्रतिनिधित्व नहीं किया जाता है?
[यह सवाल स्टैक ओवरफ्लो पर भी डाला गया था ] संक्षेप में सवाल मैं दृढ़ तंत्रिका नेटवर्क का अध्ययन कर रहा हूं, और मेरा मानना ​​है कि ये नेटवर्क हर इनपुट न्यूरॉन (पिक्सेल / पैरामीटर) के साथ समान व्यवहार नहीं करते हैं। कल्पना कीजिए कि हमारे पास एक गहरा नेटवर्क …

1
क्या स्वतंत्रता की डिग्री एक गैर-पूर्णांक संख्या हो सकती है?
जब मैं GAM का उपयोग करता हूं, तो यह मुझे अवशिष्ट डीएफ देता है (कोड में अंतिम पंक्ति)। इसका क्या मतलब है? GAM उदाहरण से परे, सामान्य तौर पर, क्या स्वतंत्रता की डिग्री की संख्या एक गैर-पूर्णांक संख्या हो सकती है?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"कर्नेल घनत्व का अनुमान" किस बात का दृढ़ संकल्प है?
मैं कर्नेल घनत्व के आकलन की बेहतर समझ प्राप्त करने की कोशिश कर रहा हूं। विकिपीडिया से परिभाषा का उपयोग करना: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definment fh^(x)=1n∑nमैं=1Kh( x -xi)=1एन एचΣnमैं = १कश्मीर( x -xमैंज)fज^(एक्स)=1nΣमैं=1nकश्मीरज(एक्स-एक्समैं)=1nजΣमैं=1nकश्मीर(एक्स-एक्समैंज) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) आइए को एक आयताकार फ़ंक्शन लेते हैं जो …

6
संवैधानिक परतें: पैड करने के लिए या नहीं करने के लिए?
एलेक्सनेट आर्किटेक्चर शून्य-पैडिंग का उपयोग करता है जैसा कि तस्वीर में दिखाया गया है: हालांकि, पेपर में कोई स्पष्टीकरण नहीं है कि यह पैडिंग क्यों पेश की गई है। स्टैंडफोर्ड सीएस 231 एन पाठ्यक्रम सिखाता है कि हम स्थानिक आकार को संरक्षित करने के लिए पैडिंग का उपयोग करते हैं: …

2
केंद्रीय सीमा प्रमेय का एक गतिशील सिस्टम दृश्य?
(मूल रूप से MSE पर पोस्ट किया गया।) मैंने शास्त्रीय केंद्रीय सीमा प्रमेय के सामान्य वितरण (या स्थिर वितरणों में से किसी एक) को "संभावना" के रूप में संभाव्यता घनत्व के स्थान में "आकर्षित करने वाले" के कई अनुमानों पर चर्चा करते देखा है। उदाहरण के लिए, विकिपीडिया के उपचार …

3
कन्वर्सेशनल न्यूरल नेटवर्क में कनविक्शन स्टेप क्या करता है?
मैं कंप्यूटर दृष्टि में उनके अनुप्रयोगों के कारण दृढ़ तंत्रिका नेटवर्क (CNNs) का अध्ययन कर रहा हूं। मैं पहले से ही मानक फीड-फॉवर्ड न्यूरल नेटवर्क से परिचित हूं, इसलिए मुझे उम्मीद है कि यहां के कुछ लोग सीएनएन को समझने में अतिरिक्त कदम उठाने में मेरी मदद कर सकते हैं। …

2
क्या समीचीनता से परे तंत्रिका नेटवर्क में संकेतन के गणितीय कारण हैं?
कनफ्यूजनियल न्यूरल नेटवर्क (CNN) में प्रत्येक चरण पर वेट का मैट्रिक्स अपनी पंक्तियों और कॉलम को कर्नेल मैट्रिक्स को प्राप्त करने के लिए फ़्लिप करता है, कनवल्शन के साथ आगे बढ़ने से पहले। यह ह्यूगो लॉरोले द्वारा वीडियो की एक श्रृंखला पर समझाया गया है : छिपे हुए मानचित्रों की …

2
चुकता सामान्य और ची-वर्ग चर के आक्षेप का वितरण?
डेटा का विश्लेषण करते समय निम्नलिखित समस्या हाल ही में सामने आई। यदि यादृच्छिक चर X एक सामान्य वितरण का अनुसरण करता है और Y एक वितरण (n dof के साथ) का अनुसरण करता है , तो वितरित किया जाता है? अब तक मैं : के पीडीएफ के साथ आया …

3
मैट्रिक्स गुणन के स्थान पर कन्वेन्शियल न्यूरल नेटवर्क वास्तव में कनवल्शन का उपयोग कैसे करते हैं?
मैं गहराई से सीखने पर यशुआ बेंगियो की किताब पढ़ रहा था और यह पेज 224 पर कहती है: संवेदी नेटवर्क केवल तंत्रिका नेटवर्क हैं जो कम से कम एक परत में सामान्य मैट्रिक्स गुणन के स्थान पर दृढ़ संकल्प का उपयोग करते हैं। हालाँकि, मैं गणितीय रूप से सटीक …

4
स्वतंत्र lognormal यादृच्छिक चर का योग lognormal प्रकट होता है?
मैं यह समझने की कोशिश कर रहा हूं कि जब आप टिप्पणियों की संख्या बढ़ाते हैं, तो दो (या अधिक) lognormal यादृच्छिक चर का योग एक lognormal वितरण से संपर्क करता है। मैंने ऑनलाइन देखा है और इससे संबंधित कोई परिणाम नहीं मिला है। स्पष्ट रूप से अगर और स्वतंत्र …

2
एक प्रशिक्षण परत में कई फिल्टर प्रशिक्षण के दौरान एक ही पैरामीटर नहीं सीखेंगे?
मैंने जो भी सीखा है, उसके आधार पर, हम अलग-अलग फ़ीचर डिटेक्टरों को सीखने के लिए CNN के कन्वीनर लेयर में कई फिल्टरों का उपयोग करते हैं। लेकिन चूंकि ये फ़िल्टर समान रूप से लागू होते हैं (यानी इनपुट के क्षेत्रों में स्लेज और गुणा), तो क्या वे प्रशिक्षण के …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.