सांख्यिकी और बिग डेटा

Q & A में सांख्यिकी, मशीन लर्निंग, डेटा विश्लेषण, डेटा माइनिंग और डेटा विज़ुअलाइज़ेशन में रुचि रखने वाले लोगों के लिए

4
हिस्टोग्राम और पीडीएफ के बीच अंतर?
यदि हम नेत्रहीन रूप से एक सतत डेटा का वितरण देखना चाहते हैं, तो हिस्टोग्राम और पीडीएफ में से किसका उपयोग किया जाना चाहिए? हिस्टोग्राम और पीडीएफ के बीच क्या अंतर हैं, फॉर्मूला वार नहीं?

6
विभिन्न प्रकार की एन्ट्रापी में अच्छा परिचय
मैं एक किताब या ऑनलाइन संसाधन की तलाश कर रहा हूं जो विभिन्न प्रकार के एन्ट्रॉपी को समझाता है जैसे कि नमूना एंट्रॉपी और शैनन एंट्रॉपी और उनके फायदे और नुकसान। क्या कोई मुझे सही दिशा दिखा सकता है?


5
हम अनुपात के लिए एक विश्वास अंतराल के निर्माण के लिए टी-वितरण का उपयोग क्यों नहीं करते हैं?
अज्ञात जनसंख्या मानक विचलन (sd) के साथ माध्य के लिए विश्वास-अंतराल (CI) की गणना करने के लिए हम t-वितरण को नियोजित करके जनसंख्या मानक विचलन का अनुमान लगाते हैं। विशेष रूप से, जहां । लेकिन क्योंकि, हमारे पास जनसंख्या के मानक विचलन का बिंदु अनुमान नहीं है, हम अनुमान लगाते …

4
स्वतंत्र रूप से और समान रूप से समान रूप से 1 से फेयर d6 का उपयोग करके पूर्णांक ड्रा करें ?
मैं 1 से कुछ विशिष्ट को कुछ छह-पक्षीय पासा (d6) को रोल करके कुछ विशिष्ट को आकर्षित करना चाहता हूं । एक अच्छा जवाब यह बताएगा कि इसकी विधि समान और स्वतंत्र पूर्णांक क्यों बनाती है ।एनNN एक उदाहरण के रूप में, यह समझाने में मदद मिलेगी कि के मामले …

2
क्या गहरी खोज के लिए खोज विधि का उपयोग किया जाता है? क्यों नहीं?
बहुत सारे ट्यूटोरियल ऑनलाइन ग्रेडिएंट डिसेंट के बारे में बात करते हैं और लगभग सभी एक निश्चित स्टेप साइज (सीखने की दर ) का उपयोग करते हैं। लाइन सर्च का कोई उपयोग क्यों नहीं होता है (जैसे कि बैकट्रैकिंग लाइन सर्च या सटीक लाइन सर्च)?αα\alpha

3
बैच आकार एसडब्ल्यूई के अभिसरण को कैसे प्रभावित करता है और क्यों?
मैंने कई चर्चाओं से समान निष्कर्ष निकाला है, जैसा कि मिनीबैच का आकार बड़ा हो जाता है, क्योंकि एसडब्ल्यूई का अभिसरण वास्तव में कठिन / बदतर हो जाता है, उदाहरण के लिए यह पेपर और यह उत्तर । इसके अलावा मैंने बड़े स्तर के आकारों के साथ इस कठिनाई को …

2
घातीय परिवार में सभी वितरण शामिल क्यों नहीं हैं?
मैं किताब पढ़ रहा हूं: बिशप, पैटर्न मान्यता और मशीन लर्निंग (2006) जो फार्म के वितरण के रूप में घातीय परिवार को परिभाषित करता है (Eq। 2.194): p(x|η)=h(x)g(η)exp{ηTu(x)}p(x|η)=h(x)g(η)exp⁡{ηTu(x)}p(\mathbf x|\boldsymbol \eta) = h(\mathbf x) g(\boldsymbol \eta) \exp \{\boldsymbol \eta^\mathrm T \mathbf u(\mathbf x)\} लेकिन मुझे h(x)h(x)h(\mathbf x) या \ mathbf u …

1
क्या एक साथ L1 और L2 नियमितीकरण (उर्फ इलास्टिक नेट) के साथ रैखिक प्रतिगमन की एक बायेसियन व्याख्या है?
यह सर्वविदित है कि दंड के साथ रैखिक प्रतिगमन सह-गुणकों पर पूर्व में गाऊसी द्वारा दिए गए एमएपी अनुमान को खोजने के बराबर है। इसी तरह, एल 1 दंड का उपयोग करना पूर्व के रूप में लाप्लास वितरण का उपयोग करने के बराबर है।l2l2l^2l1l1l^1 और एल 2 नियमितीकरण के कुछ …

3
कैसे करें आइसोमेट्रिक लॉग-अनुपात परिवर्तन
मेरा मूवमेंट बिहेवियर (समय बिताना, नींद आना, गतिहीन होना और शारीरिक गतिविधि करना) पर डेटा है, जो लगभग 24 (जैसा कि प्रति दिन घंटों में) होता है। मैं एक ऐसा वैरिएबल बनाना चाहता हूं, जो इनमें से प्रत्येक व्यवहार में खर्च किए गए सापेक्ष समय को पकड़ता है - मुझे …

2
क्या मिनी-बैच प्रशिक्षण के लिए बेतरतीब ढंग से खींचे गए नमूने को तंत्रिका जाल को प्रतिस्थापन के बिना खींचा जाना चाहिए?
हम सभी उपलब्ध प्रशिक्षण नमूनों की संपूर्णता के माध्यम से एक युग को परिभाषित करते हैं, और मिनी-बैच के आकार को उन नमूनों की संख्या के रूप में दर्शाते हैं जिनके आधार पर हम ढाल को नीचे करने के लिए आवश्यक भार / पूर्वाग्रहों के अपडेट को खोजने के लिए …

2
यदि कर्नेल डेंसिटी एस्टीमेशन करते समय एपेनिकिकोव कर्नेल सैद्धांतिक रूप से इष्टतम है, तो इसे अधिक सामान्यतः क्यों नहीं उपयोग किया जाता है?
मैंने पढ़ा है (उदाहरण के लिए, यहां ) कि एपीनेक्निकोव कर्नेल इष्टतम है, कम से कम एक सैद्धांतिक अर्थ में, जब कर्नेल घनत्व अनुमान लगाते हैं। यदि यह सच है, तो गॉसियन इतनी बार डिफ़ॉल्ट कर्नेल के रूप में क्यों दिखाता है, या कई मामलों में घनत्व अनुमान पुस्तकालयों में …

2
जेफ़रीज़ प्रियर्स और एक विचरण स्थिरीकरण परिवर्तन के पीछे क्या संबंध है?
मैं wikipedia पर Jeffreys से पहले के बारे में पढ़ रहा था: Jeffreys पहले और देखा कि प्रत्येक उदाहरण के बाद, यह वर्णन करता है कि कैसे एक भिन्नता-स्थिरीकरण परिवर्तन Jeffreys को एक समान पूर्व में बदल देता है। उदाहरण के लिए, Bernoulli मामले के लिए, यह कहा गया है …

2
हाइपरपरिमेट ट्यूनिंग के लिए बायेसियन ऑप्टिमाइज़ेशन पर कण झुंड अनुकूलन का लाभ?
एमएल हाइपरपैरमीटर ट्यूनिंग के लिए बायेसियन ऑप्टिमाइज़ेशन (1) पर पर्याप्त समकालीन शोध है । यहां ड्राइविंग प्रेरणा यह है कि कम से कम संख्या में डेटा बिंदुओं के बारे में सूचित विकल्प बनाने के लिए आवश्यक है कि कौन से बिंदुओं का प्रयास करने के लिए सार्थक हैं (उद्देश्य फ़ंक्शन …

2
सुदृढीकरण सीखने में एक इनाम समारोह कैसे करें
सुदृढीकरण सीखने का अध्ययन करते समय, मैं इनाम समारोह के कई रूपों में आया हूं: , , और यहां तक ​​कि एक इनाम फ़ंक्शन जो केवल वर्तमान स्थिति पर निर्भर करता है। यह कहने के बाद, मुझे एहसास हुआ कि एक इनाम समारोह को 'परिभाषित' या 'परिभाषित' करना बहुत आसान …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.