सांख्यिकी और बिग डेटा

Q & A में सांख्यिकी, मशीन लर्निंग, डेटा विश्लेषण, डेटा माइनिंग और डेटा विज़ुअलाइज़ेशन में रुचि रखने वाले लोगों के लिए

3
(क्यों) कोहेन-शैली एसओएम के पक्ष से बाहर हो गया है?
जहां तक ​​मैं बता सकता हूं, 2005 के आसपास कोहेनन-शैली के एसओएम का शिखर वापस आ गया था और हाल ही में उतना एहसान नहीं देखा। मुझे ऐसा कोई पेपर नहीं मिला है जो यह कहता हो कि SOMs को किसी अन्य विधि से सब्सक्राइब किया गया है, या किसी …

2
क्या यह कला प्रतिगमन पद्धति की स्थिति है?
मैं एक लंबे समय से कागल प्रतियोगिताओं का पालन कर रहा हूं और मुझे पता चला है कि कई जीतने वाली रणनीतियों में कम से कम एक "बिग थ्रीज" का उपयोग करना शामिल है: बैगिंग, बूस्टिंग और स्टैकिंग। प्रतिगमन के लिए, एक सर्वोत्तम संभव प्रतिगमन मॉडल बनाने पर ध्यान केंद्रित …

3
गहरे संवेदी तंत्रिका नेटवर्क में पूर्व प्रशिक्षण?
क्या किसी ने पहले से गहन गहन तंत्रिका नेटवर्क में प्रशिक्षण पर कोई साहित्य देखा है? मैंने केवल ऑटोएन्कोडर या प्रतिबंधित बोल्ट्ज़मैन मशीनों में बिना पूर्व-प्रशिक्षित प्रशिक्षण देखा है।

8
क्या आउटलेर को डेटा से निकालना ठीक है?
मैंने एक डेटासेट से आउटलेर्स को हटाने का तरीका खोजा और मुझे यह प्रश्न मिला । इस सवाल के कुछ टिप्पणियों और उत्तरों में, हालांकि, लोगों ने उल्लेख किया कि डेटा से आउटलेर्स को निकालना बुरा है। मेरे डेटासेट में मेरे पास कई आउटलेयर हैं जो कि माप त्रुटियों के …
33 outliers 

2
भट्टाचार्य दूरी और केएल विचलन के बीच अंतर
मैं निम्नलिखित प्रश्नों के लिए एक सहज व्याख्या की तलाश में हूं: सांख्यिकी और सूचना सिद्धांत में, भट्टाचार्य दूरी और केएल विचलन के बीच अंतर क्या है, दो असतत संभावना वितरण के बीच अंतर के उपाय के रूप में? क्या उनके पास बिल्कुल कोई संबंध नहीं है और दो संभावना …

2
आर में चौकड़ी ढूँढना
आर सीखने के दौरान मैं एक पाठ्यपुस्तक के माध्यम से काम कर रहा हूं और मैं निम्नलिखित उदाहरण पर एक ठोकर में चला गया हूं: देखने के बाद ?quantileमैंने आर के साथ इसे फिर से बनाने का प्रयास किया: > nuclear <- c(7, 20, 16, 6, 58, 9, 20, 50, …
33 r  quantiles 

1
फैक्टर एनालिसिस / पीसीए में रोटेशन करने के पीछे सहज कारण क्या है और उपयुक्त रोटेशन का चयन कैसे करें?
मेरे सवाल कारक विश्लेषण (या पीसीए में घटकों) में कारकों के रोटेशन करने के पीछे सहज कारण क्या है? मेरी समझ यह है, यदि चर शीर्ष घटकों (या कारकों) में लगभग समान रूप से लोड होते हैं तो जाहिर है कि घटकों को अलग करना मुश्किल है। तो इस मामले …

4
(क्यों) ओवरफेड मॉडल में बड़े गुणांक होते हैं?
मैं कल्पना करता हूं कि एक चर पर जितना बड़ा गुणांक होता है, उस आयाम में मॉडल को "स्विंग" करने की अधिक क्षमता होती है, जिससे शोर को फिट करने का एक बढ़ा मौका मिलता है। हालांकि मुझे लगता है कि मुझे मॉडल और बड़े गुणांक में विचरण के बीच …

3
चमक मॉडल के लिए अवशिष्ट नैदानिक ​​भूखंडों की व्याख्या करना?
मैं glm मॉडल के अवशिष्ट भूखंडों की व्याख्या करने के बारे में दिशानिर्देशों की तलाश कर रहा हूं। विशेष रूप से पॉइसन, नकारात्मक द्विपद, द्विपद मॉडल। जब मॉडल "सही" हैं, तो हम इन भूखंडों से क्या उम्मीद कर सकते हैं? (उदाहरण के लिए, हम उम्मीद करते हैं कि विचरण बढ़ने …

5
क्या एक नमूना सहसंयोजक मैट्रिक्स हमेशा सममित और सकारात्मक निश्चित होता है?
जब एक नमूने के सहसंयोजक मैट्रिक्स की गणना की जाती है, तो क्या एक सममित और सकारात्मक-निश्चित मैट्रिक्स प्राप्त करने की गारंटी होती है? वर्तमान में मेरी समस्या में 4600 अवलोकन वैक्टर और 24 आयामों का एक नमूना है।

7
एक (विशाल) मोड़ के साथ जन्मदिन का विरोधाभास: साझीदार के साथ जन्म की सटीक तारीख साझा करने की संभावना?
मैं अपने प्रेमी के रूप में एक ही जन्मतिथि साझा करता हूं, एक ही तारीख लेकिन उसी वर्ष, हमारे जन्म केवल 5 घंटे या तो अलग हो जाते हैं। मुझे पता है कि किसी ऐसे व्यक्ति से मिलने की संभावना जो मेरे मुकाबले एक ही तारीख को पैदा हुई थी, …

2
की स्वतंत्रता की डिग्री
के लिए परीक्षण आंकड़ा Hosmer-Lemeshow एक रसद प्रतिगमन मॉडल के फिट (GOF) की भलाई के लिए परीक्षण (HLT) के रूप में परिभाषित किया गया है: नमूना फिर , में विभाजित होता है , निम्न मात्राओं की गणना करता है:d=10d=10d=10D1,D2,…,DdD1,D2,…,DdD_1, D_2, \dots , D_{d} O1d=∑i∈DdyiO1d=∑i∈DdyiO_{1d}=\displaystyle \sum_{i \in D_d} y_i , यानी …

2
पी-वैल्यू को समझना
मुझे पता है कि पी-मूल्य की व्याख्या करने वाली बहुत सारी सामग्रियां हैं। हालांकि अवधारणा आगे स्पष्टीकरण के बिना मजबूती से पकड़ना आसान नहीं है। यहाँ विकिपीडिया से p- मान की परिभाषा इस प्रकार है: पी-मान कम से कम एक परीक्षण सांख्यिकीय प्राप्त करने की संभावना है जितना कि वास्तव …

3
क्या
मान लीजिए आप अनुक्रम का निरीक्षण करते हैं: 7, 9, 0, 5, 5, 5, 5, 4, 8, 0, 6, 9, 5, 3, 8, 7, 8, 5, 4, 0, 6, 4, 5, 3, 3, 3, 7, 5, 9, 8, 1, 8, 6, 2, 8, 4, 6, 4, 1, 9, 9, 0, …

5
क्या SVM एक बार में एक उदाहरण से सीख सकता है?
मेरे पास एक स्ट्रीमिंग डेटा सेट है, उदाहरण एक समय में उपलब्ध हैं। मुझे उन पर मल्टी क्लास वर्गीकरण करने की आवश्यकता होगी। जैसे ही मैंने सीखने की प्रक्रिया के लिए एक प्रशिक्षण उदाहरण दिया, मुझे उदाहरण को त्यागना होगा। समवर्ती, मैं भी नवीनतम मॉडल का उपयोग कर रहा हूँ …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.