variational-bayes पर टैग किए गए जवाब

वैरिएशन बायेसियन तरीके बायेसियन इंट्रेंस और मशीन लर्निंग में पाए जाने वाले अंतरंग इंटीग्रल। मुख्य रूप से, ये विधियां दो उद्देश्यों में से एक का कार्य करती हैं: पश्च वितरण को मंजूरी देना, या प्रेक्षित डेटा की सीमांत संभावना को बाध्य करना।

7
VAEs के लिए पुनर्संरचना चाल कैसे काम करता है और यह महत्वपूर्ण क्यों है?
वैरिएबल ऑटोकेनोडर्स (VAE) के लिए पुनर्मूल्यांकन चाल कैसे काम करती है? क्या अंतर्निहित गणित को सरल किए बिना एक सहज और आसान स्पष्टीकरण है? और हमें 'ट्रिक' की आवश्यकता क्यों है?

1
वैरिएशन का निष्कर्ष बनाम MCMC: जब एक दूसरे को चुनने के लिए?
मुझे लगता है कि मुझे VIMC और MCMC दोनों के सामान्य विचार मिलते हैं, जिसमें MCMC के विभिन्न फ्लेवर जैसे गिब्स सैंपलिंग, मेट्रोपोलिस हेस्टिंग्स आदि शामिल हैं। यह पेपर दोनों विधियों का एक अद्भुत प्रदर्शन प्रदान करता है। मेरे पास निम्नलिखित प्रश्न हैं: अगर मैं बायेसियन इंट्रेंस करना चाहता हूं, …

1
वैरिएबल बे और ईएम के बीच संबंध
मैंने कहीं पढ़ा है कि वेरिएशन बेयस पद्धति ईएम एल्गोरिदम का एक सामान्यीकरण है। दरअसल, एल्गोरिदम के पुनरावृत्त भाग बहुत समान हैं। यह जांचने के लिए कि क्या EM एल्गोरिथ्म वैरिएशनल बे का एक विशेष संस्करण है, मैंने निम्नलिखित की कोशिश की: एक्स Θ पी ( एक्स , Θ | …

2
वजन कम करने के लिए कैसे वैरिएबल ऑटो-एनकोडर में पुनर्निर्माण नुकसान बनाम केएलडी
लगभग सभी कोड उदाहरणों में मैंने एक वीएई के बारे में देखा है, नुकसान कार्यों को निम्नानुसार परिभाषित किया गया है (यह टेंसोफ़्लो कोड है, लेकिन मैंने थीनो, मशाल आदि के लिए समान देखा है। यह एक कंफर्ट के लिए भी है, लेकिन यह भी प्रासंगिक नहीं है , बस …

1
परिवर्तनशील ऑटोएन्कोडर्स क्या हैं और उनका उपयोग किन शिक्षण कार्यों के लिए किया जाता है?
के अनुसार इस और इस सवाल का जवाब, autoencoders एक तकनीक आयाम कम करने के लिए तंत्रिका नेटवर्क का उपयोग करता है होने लगते हैं। मैं अतिरिक्त पता है कि एक है चाहते हैं परिवर्तन संबंधी autoencoder (अपने मुख्य अंतर / एक "पारंपरिक" autoencoders से अधिक लाभ) है और यह …

4
जब एक ऑटोकेनोडर के विपरीत मुझे एक वैरिएबल ऑटोकेनर का उपयोग करना चाहिए?
मैं परिवर्तनशील ऑटोकेन्डर और सामान्य (नियतात्मक) ऑटोकेनोडर और उनके पीछे के गणित की मूल संरचना को समझता हूं, लेकिन मैं कब और क्यों एक प्रकार के ऑटोकेनर को दूसरे के लिए पसंद करूंगा? सभी मेरे बारे में सोच सकते हैं कि परिवर्तनशील ऑटोकेनोडर के अव्यक्त चर का पूर्व वितरण हमें …

1
मशीन लर्निंग मॉडल की "क्षमता" क्या है?
मैं कार्ल Doersch द्वारा वैरिएंट ऑटोएन्कोडर्स पर इस ट्यूटोरियल का अध्ययन कर रहा हूं । दूसरे पृष्ठ में यह कहा गया है: इस तरह के सबसे लोकप्रिय फ्रेमवर्क में से एक है वैरिएंट ऑटोकेनोडर [1, 3], इस ट्यूटोरियल का विषय है। इस मॉडल की धारणाएं कमजोर हैं, और बैकप्रोपैजेशन के …

3
संख्यात्मक एकीकरण से क्या मतलब है बहुत महंगा है?
मैं बायेसियन इंट्रेंस के बारे में पढ़ रहा हूं और मुझे वाक्यांश "सीमांत संभावना का संख्यात्मक एकीकरण बहुत महंगा है" मेरे पास गणित की पृष्ठभूमि नहीं है और मैं सोच रहा था कि वास्तव में यहाँ महंगा क्या है ? क्या यह सिर्फ गणना शक्ति के संदर्भ में है या …

1
भिन्नता संबंधी आविष्कार, केएल विचलन के लिए सच्चे आवश्यकता होती है
मेरे (बहुत मामूली) के लिए एक अनुमान लगाने के लिए, परिवर्तन संबंधी अनुमान की समझ में एक की कोशिश करता अज्ञात वितरण एक वितरण का पता लगाकर निम्न का अनुकूलन:pppqqq KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} जब भी मैं परिवर्तनशील अनुमान को समझने में समय लगाता हूं तो मैं …

1
डीएई और स्टोकेस्टिक बैकप्रोपेगेशन के बीच डीप जेनेरेटिव मॉडल्स में क्या अंतर है?
डीप जेनेरेशन मॉडल्स के लिए ऑटो-एन्कोडिंग वेरिएशन बेस और स्टोचैस्टिक बैकप्रोपैजेशन में क्या अंतर है ? क्या दोनों तरीकों से अनुमान लगाने से परिणाम समान होते हैं? मुझे दो तरीकों के बीच किसी भी स्पष्ट तुलना की जानकारी नहीं है, इसके बावजूद कि लेखकों के दोनों समूह एक-दूसरे का हवाला …

2
एक इकाई गाऊसी के साथ केएल नुकसान
मैं एक वीएई को लागू कर रहा हूं और मैंने सरलीकृत यूनीवेट गॉसियन केएल विचलन के दो अलग-अलग कार्यान्वयन ऑनलाइन देखे हैं। यहाँ के अनुसार मूल विचलन है कएलएल ओ एस एस= लॉग(σ2σ1) +σ21+ (μ1-μ2)22σ22-12KLloss=log⁡(σ2σ1)+σ12+(μ1−μ2)22σ22−12 KL_{loss}=\log(\frac{\sigma_2}{\sigma_1})+\frac{\sigma_1^2+(\mu_1-\mu_2)^2}{2\sigma^2_2}-\frac{1}{2} यदि हम मानते हैं कि हमारी पूर्व इकाई गौसियन है μ2= 0μ2=0\mu_2=0 तथा σ2= …

1
मोंटे कार्लो के साथ संयुक्त रूप से भिन्नरूप
मैं वैरिएबल बे पर पढ़ रहा हूं, और जैसा कि मैं इसे समझता हूं, यह इस विचार पर उतरता है कि आप अनुमानित हैं p ( z)∣ x )p(z∣x)p(z\mid x) (कहाँ पे zzz आपके मॉडल के अव्यक्त चर हैं और एक्सxx एक समारोह के साथ मनाया डेटा) क्ष( z))q(z)q(z), धारणा …

2
नमूना के बिना उच्च आयामी अनुमान समस्याओं में अनिश्चितता का अनुमान?
मैं एक उच्च-आयामी अनुमान समस्या (लगभग 2000 मॉडल पैरामीटर) पर काम कर रहा हूं, जिसके लिए हम ढाल-आधारित अनुकूलन और एक आनुवंशिक एल्गोरिथ्म के संयोजन का उपयोग करके लॉग-पोस्टेरियर का वैश्विक अधिकतम पता लगाकर एमएपी अनुमान को मजबूत करने में सक्षम हैं। मैं MAP अनुमान ढूँढने के अलावा मॉडल मापदंडों …

2
गाऊसी के बेयसियन मिश्रण के लिए स्टोकेस्टिक वैरिएशन का प्रयोग
मैं इस पेपर के बाद स्टोकेस्टिक वैरिएशन के साथ गौसियन मिक्सचर मॉडल को लागू करने की कोशिश कर रहा हूं । यह गॉसियन मिक्सचर का पैगाम है। कागज के अनुसार, स्टोकेस्टिक वैरिएशन की पूर्ण एल्गोरिथ्म है: और मैं अभी भी जीएमएम के लिए इसे स्केल करने की विधि से बहुत …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.