cross-validation पर टैग किए गए जवाब

सामान्य प्रक्रियाओं का संदर्भ देता है जो सांख्यिकीय परिणाम की सामान्यता निर्धारित करने का प्रयास करते हैं। क्रॉस-मान्यता अक्सर यह आकलन करने के संदर्भ में उत्पन्न होती है कि एक विशेष मॉडल कैसे भविष्य की टिप्पणियों की भविष्यवाणी करता है। क्रॉस-वैलिडेशन के लिए तरीकों में आमतौर पर मॉडल फिटिंग के दौरान डेटा का एक यादृच्छिक सबसेट रोकना शामिल है और यह भविष्यवाणी की सटीकता का एक उपाय प्राप्त करने के लिए इस प्रक्रिया को सही और अनुमानित डेटा को कितनी मात्रा में दोहराया जाता है, इसकी मात्रा निर्धारित की जाती है।

1
स्केगन ग्रैडिएंटबॉस्टिंग क्लैसिफायर की तुलना में एक्सगबोस्ट इतना तेज क्यों है?
मैं 100 न्यूमेरिक फीचर्स के साथ 50k उदाहरणों पर एक ढाल बढ़ाने वाले मॉडल को प्रशिक्षित करने की कोशिश कर रहा हूं। XGBClassifierमेरी मशीन पर 43 सेकंड के भीतर 500 पेड़ लगाता है, जबकि GradientBoostingClassifier1 मिनट और 2 सेकंड में केवल 10 पेड़ (!) को संभालता है :( मैंने 500 …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

3
क्या रैंडम फ़ॉरेस्ट के साथ मॉडलिंग को क्रॉस-मान्यता की आवश्यकता है?
जहाँ तक मैंने देखा है, इस बारे में राय अलग-अलग है। सबसे अच्छा अभ्यास निश्चित रूप से क्रॉस-वैलिडेशन का उपयोग करके निर्देशित करेगा (विशेषकर यदि एक ही डेटासेट पर अन्य एल्गोरिदम के साथ आरएफ की तुलना करें)। दूसरी ओर, मूल स्रोत बताता है कि मॉडल प्रशिक्षण के दौरान ओओबी त्रुटि …

2
ग्रिडसर्च के आउटपुट का उपयोग कैसे करें?
मैं वर्तमान में वर्गीकरण उद्देश्यों के लिए पायथन और स्किकिट के साथ काम कर रहा हूं, और ग्रिडसर्च के आसपास कुछ पठन कर रहा हूं मैंने सोचा कि यह सबसे अच्छा परिणाम प्राप्त करने के लिए मेरे अनुमानक मापदंडों को अनुकूलित करने का एक शानदार तरीका था। मेरी कार्यप्रणाली यह …

3
PySpark में कई डेटा फ़्रेम रो-वार मर्ज करना
मैं 10 डेटा फ्रेम है pyspark.sql.dataframe.DataFrame, से प्राप्त randomSplitके रूप में (td1, td2, td3, td4, td5, td6, td7, td8, td9, td10) = td.randomSplit([.1, .1, .1, .1, .1, .1, .1, .1, .1, .1], seed = 100)अब मैं 9 में शामिल करना चाहते td'एक भी डेटा फ्रेम में है, मुझे लगता है …

4
बूटस्ट्रैपिंग और क्रॉस-वैलिडेशन के बीच अंतर क्या है?
मैं अपने मशीन लर्निंग मॉडल के मजबूत मूल्यांकन के लिए के-गुना क्रॉस-वैरिफिकेशन लागू करता था। लेकिन मैं इस उद्देश्य के लिए बूटस्ट्रैपिंग विधि के अस्तित्व से भी अवगत हूं। हालाँकि, मैं प्रदर्शन आकलन के संदर्भ में उनके बीच मुख्य अंतर नहीं देख सकता। जहाँ तक मैं देख रहा हूँ, बूटस्ट्रैपिंग …

2
सत्यापन सेट और परीक्षण सेट दोनों का उपयोग क्यों करें?
एक तंत्रिका नेटवर्क पर विचार करें: दिए गए डेटा के सेट के लिए, हम इसे प्रशिक्षण, सत्यापन और परीक्षण सेट में विभाजित करते हैं। मान लीजिए कि हम इसे 60:20:20 के क्लासिक अनुपात में करते हैं, तो हम नेटवर्क को वैध सेट पर जाँच कर इसे सत्यापित करने से रोकते …

1
केरेस के फिट फंक्शन का वैलिडेशन_सप्लिट पैरामीटर कैसे काम करता है?
केरस अनुक्रमिक मॉडल फिट फ़ंक्शन में मान्यता-विभाजन https://keras.io/models/fter// पर निम्न के रूप में प्रलेखित है : validation_split: 0 और 1. के बीच फ़्लोट सत्यापन डेटा का उपयोग सत्यापन डेटा के रूप में किया जाएगा। मॉडल प्रशिक्षण डेटा के इस अंश को अलग करेगा, उस पर प्रशिक्षण नहीं देगा, और प्रत्येक …

5
सीबॉर्न हीटमैप को बड़ा करें
मैं corr()एक मूल df से df बनाता हूं । corr()Df बाहर 70 एक्स 70 में आया और यह हीटमैप कल्पना करने के लिए असंभव है ... sns.heatmap(df)। अगर मैं प्रदर्शित करने की कोशिश करता हूं corr = df.corr(), तो तालिका स्क्रीन पर फिट नहीं होती है और मैं सभी सहसंबंधों …
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
क्रॉस-वैलिडेशन के बाद क्लासिफायर का चयन कैसे करें?
जब हम के-फोल्ड क्रॉस सत्यापन करते हैं, तो क्या हमें उस क्लासिफायर का उपयोग करना चाहिए जिसमें सबसे अधिक परीक्षण सटीकता हो? क्रॉस वैरिफिकेशन से क्लासिफायर होने में आमतौर पर सबसे अच्छा तरीका क्या है?

2
क्या ओवरफ़िटिंग तब भी हो सकती है जब सत्यापन नुकसान अभी भी गिर रहा है?
मेरे पास केरस में एक कन्वेन्शनल + एलएसटीएम मॉडल है, यह (रेफ 1) के समान है, जिसका उपयोग मैं एक कागेल प्रतियोगिता के लिए कर रहा हूं। वास्तुकला नीचे दिखाया गया है। मैंने इसे 11000 नमूनों के अपने लेबल सेट पर प्रशिक्षित किया है (दो कक्षाएं, प्रारंभिक प्रचलन ~ 9: …

1
मुझे कितने LSTM सेल का उपयोग करना चाहिए?
क्या LSTM कोशिकाओं की न्यूनतम, अधिकतम और "उचित" राशि से संबंधित अंगूठे (या वास्तविक नियम) के कोई नियम हैं जिनका मुझे उपयोग करना चाहिए? विशेष रूप से मैं कर रहा हूँ से संबंधित BasicLSTMCell TensorFlow और से num_unitsसंपत्ति। कृपया मान लें कि मेरे पास एक वर्गीकरण समस्या है जिसे परिभाषित …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

4
डेटा सेट आकार के साथ ओवरफ़िटिंग / अंडरफ़िटिंग
नीचे दिए गए ग्राफ़ में, x- अक्ष => डेटा सेट आकार y- अक्ष => क्रॉस सत्यापन स्कोर लाल रेखा प्रशिक्षण डेटा के लिए है ग्रीन लाइन डेटा के परीक्षण के लिए है एक ट्यूटोरियल में जिसका मैं उल्लेख कर रहा हूं, लेखक कहता है कि वह बिंदु जहां लाल रेखा …

2
क्रॉस-मान्यता: K- गुना बनाम दोहराया यादृच्छिक उप-नमूना
मुझे आश्चर्य है कि वर्गीकरण समस्या के लिए किस प्रकार का मॉडल क्रॉस-वेलिडेशन: के-गुना या रैंडम सब-सैंपलिंग (बूटस्ट्रैप नमूनाकरण)? मेरा सबसे अच्छा अनुमान प्रशिक्षण के लिए डेटा सेट के 2/3 (जो ~ 1000 आइटम हैं) और सत्यापन के लिए 1/3 का उपयोग करना है। इस मामले में के-गुना केवल तीन …

1
अनाम स्केल किए गए संख्यात्मक भविष्यवक्ताओं के साथ numer.ai प्रतियोगिता के लिए कैसे संपर्क करें?
Numer.ai अभी कुछ समय के लिए है और वेब पर इसके बारे में केवल कुछ पोस्ट या अन्य चर्चाएँ होती हैं। सिस्टम समय-समय पर बदला गया है और आज सेट-अप निम्नलिखित है: ट्रेन (N = 96K) और परीक्षण (N = 33K) डेटा 21 विशेषताओं के साथ [0,1] में निरंतर मूल्यों …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.