सांख्यिकी और बिग डेटा

Q & A में सांख्यिकी, मशीन लर्निंग, डेटा विश्लेषण, डेटा माइनिंग और डेटा विज़ुअलाइज़ेशन में रुचि रखने वाले लोगों के लिए

1
जब शब्द "पूर्वाग्रह" मतलब करने के लिए गढ़ा गया था
जब शब्द "पूर्वाग्रह" मतलब करने के लिए गढ़ा गया था ई [ θ^- θ ]इ[θ^-θ]\mathbb{E}[\hat{\theta}-\theta] ? इस समय मैं इस बारे में क्यों सोच रहा हूं, इसका कारण यह है कि मैं जेनेस को याद करने लगता हूं, उसके प्रोबेबिलिटी थ्योरी पाठ में, इस सूत्र का वर्णन करने के लिए …

2
क्या द्विआधारी परिणाम और भविष्यवक्ता के साथ लॉजिस्टिक प्रतिगमन का उपयोग करना समझ में आता है?
मेरे पास एक द्विआधारी परिणाम चर {0,1} और एक भविष्यवक्ता चर {0,1} है। मेरा विचार है कि जब तक मैं अन्य चर को शामिल नहीं करता हूं और ऑड्स अनुपात की गणना नहीं करता है, तब तक लॉजिस्टिक करने का कोई मतलब नहीं है। एक बाइनरी भविष्यवक्ता के साथ, संभावना …

7
मशीन लर्निंग में बायस्ड डेटा
मैं डेटा के साथ मशीन लर्निंग प्रोजेक्ट पर काम कर रहा हूं जो डेटा चयन द्वारा पहले से ही (भारी) पक्षपाती है। मान लेते हैं कि आपके पास कठिन कूट नियमों का एक सेट है। आप इसे बदलने के लिए मशीन लर्निंग मॉडल का निर्माण कैसे करते हैं, जब इसका …

11
एक मैट्रिक्स के "कॉलम की संख्या" के लिए एक शब्द
एक मैट्रिक्स के "कॉलम की संख्या" को निरूपित करने के लिए एक भी अंग्रेजी शब्द है? उदाहरण के लिए, मैट्रिक्स की "आयामीता" 2 × 3 है । मुझे इस उदाहरण में 3 के लिए एक शब्द की आवश्यकता है । मैं हमेशा केवल "कॉलम की संख्या" कह सकता हूं, निश्चित …

2
दृढ़ तंत्रिका नेटवर्क में अधिकतम पूलिंग क्यों आवश्यक है?
अधिकांश सामान्य दृढ़ तंत्रिका नेटवर्क में आउटपुट सुविधाओं के आयामों को कम करने के लिए पूलिंग परतें होती हैं। मैं केवल समान परत के स्ट्राइड को बढ़ाने के द्वारा एक ही चीज क्यों हासिल नहीं कर सका? पूलिंग लेयर क्या आवश्यक है?

4
लॉग-लाइक बनाम बनाम संभावना का उपयोग करने के लिए सैद्धांतिक प्रेरणा
मैं एक गहरे स्तर पर सांख्यिकी और संभाव्यता सिद्धांत में लॉग-लाइबिलिटी (और शायद अधिक सामान्यतः लॉग-प्रायिकता) की सर्वव्यापीता को समझने की कोशिश कर रहा हूं। लॉग-संभाव्यताएं सभी जगह दिखाई देती हैं: हम आमतौर पर विश्लेषण के लिए लॉग-लाइबिलिटी के साथ काम करते हैं (उदाहरण के लिए अधिकतमकरण), फिशर सूचना को …

3
तंत्रिका नेटवर्क के प्रतिष्ठित (खिलौना) मॉडल
ग्रेड स्कूल में मेरी भौतिकी के प्राध्यापक, और साथ ही नोबल पुरस्कार विजेता फेनमैन, हमेशा प्रस्तुत करते थे कि उन्होंने भौतिकी में बुनियादी अवधारणाओं और तरीकों को चित्रित करने के लिए खिलौना मॉडल कहा था, जैसे हार्मोनिक थरथरानवाला, पेंडुलम, कताई शीर्ष, और ब्लैक बॉक्स। तंत्रिका नेटवर्क के अनुप्रयोग में अंतर्निहित …

6
वाइन रेटिंग (0 और 10 से) की भविष्यवाणी करने के लिए रैखिक प्रतिगमन या क्रमिक उपस्कर प्रतिगमन
मेरे पास यहां से वाइन डेटा है जिसमें 11 संख्यात्मक स्वतंत्र चर हैं, जिसमें 0 और 10. के बीच के मूल्यों के साथ प्रत्येक प्रविष्टि के साथ जुड़े एक आश्रित रेटिंग है। यह चर और संबंधित के बीच संबंध की जांच करने के लिए प्रतिगमन मॉडल का उपयोग करने के …

4
क्यू-लर्निंग परीक्षण के दौरान एप्सिलॉन-लालची का उपयोग क्यों करता है?
अटारी वीडियो गेम ( यहां ) के लिए डीप क्यू-लर्निंग पर डीपमाइंड के पेपर में , वे प्रशिक्षण के दौरान अन्वेषण के लिए एप्सिलॉन-लालची विधि का उपयोग करते हैं। इसका मतलब यह है कि जब प्रशिक्षण में एक कार्रवाई का चयन किया जाता है, तो इसे या तो उच्चतम q- …

1
टी-टेस्ट और एनोवा दो-समूह तुलना के लिए अलग-अलग पी-वैल्यू क्यों देते हैं?
एनोवा पर विकिपीडिया लेख में , यह कहता है अपने सरलतम रूप में, एनोवा एक सांख्यिकीय परीक्षण प्रदान करता है कि क्या कई समूहों के साधन समान हैं या नहीं, और इसलिए दो से अधिक समूहों के लिए टी-परीक्षण को सामान्य करता है। मेरी समझ यह है कि एनोवा दो-समूह …

6
की सहज व्याख्या
यदि पूर्ण रैंक है, तो का विलोम मौजूद है और हमें सबसे कम वर्ग का अनुमान मिलता है: औरएक्स टी एक्स β = ( एक्स टी एक्स ) - 1 एक्स वाई वार ( β ) = σ 2 ( एक्स टी एक्स ) - 1XXXXTXXTXX^TXβ^=(XTX)−1XYβ^=(XTX)−1XY\hat\beta = (X^TX)^{-1}XYVar(β^)=σ2(XTX)−1Var⁡(β^)=σ2(XTX)−1\operatorname{Var}(\hat\beta) = \sigma^2(X^TX)^{-1} …

2
मान लीजिए
यह देखने का सबसे आसान तरीका क्या है कि निम्नलिखित कथन सत्य है? मान लीजिए Y1,…,Yn∼iidExp(1)Y1,…,Yn∼iidExp(1)Y_1, \dots, Y_n \overset{\text{iid}}{\sim} \text{Exp}(1) । दिखाएँ ∑ni=1(Yi−Y(1))∼Gamma(n−1,1)∑i=1n(Yi−Y(1))∼Gamma(n−1,1)\sum_{i=1}^{n}(Y_i - Y_{(1)}) \sim \text{Gamma}(n-1, 1) । Y(1)=min1≤i≤nYiY(1)=min1≤i≤nYiY_{(1)} = \min\limits_{1 \leq i \leq n}Y_i द्वारा , इस का मतलब है कि ।X∼Exp(β)X∼Exp(β)X \sim \text{Exp}(\beta)fX(x)=1βe−x/β⋅1{x>0}fX(x)=1βe−x/β⋅1{x>0}f_{X}(x) = \dfrac{1}{\beta}e^{-x/\beta} \cdot \mathbf{1}_{\{x …

3
बीटा वितरण घनत्व फ़ंक्शन में -1 क्यों है?
बीटा वितरण दो पैरामीरीज़ेशन (या यहाँ ) के अंतर्गत आता है च ( एक्स ) α x α ( 1−x)βf(x)∝xα(1−x)β(1) f(x) \propto x^{\alpha} (1-x)^{\beta} \tag{1} या वह जो अधिक सामान्यतः उपयोग किया जाता है च ( एक्स ) α x α - 1 (1−x)β−1f(x)∝xα−1(1−x)β−1(2) f(x) \propto x^{\alpha-1} (1-x)^{\beta-1} \tag{2} लेकिन …

2
क्या लॉजिस्टिक रिग्रेशन पर विचार होता है?
क्या लॉजिस्टिक रिग्रेशन के प्रतिक्रिया चर पर आईआईडी की धारणा है? उदाहरण के लिए, मान लें कि हमारे पास 100010001000 डेटा पॉइंट हैं। ऐसा लगता है कि प्रतिक्रिया बर्नौली वितरण से । इसलिए, हमारे पास अलग-अलग पैरामीटर साथ बर्नौली वितरण होना चाहिए ।पी मैं = logit ( β 0 + …

1
नमूना आकार को यादृच्छिक चर बनाने का क्या मतलब है?
फ्रैंक हरेल ने एक ब्लॉग ( सांख्यिकीय सोच) शुरू किया है । अपने प्रमुख पद में , वह अपने सांख्यिकीय दर्शन की कुछ प्रमुख विशेषताओं को सूचीबद्ध करता है। अन्य मदों में, यह शामिल हैं: जब संभव हो तो नमूना आकार को एक यादृच्छिक चर बनाएं "नमूना आकार को एक …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.