python पर टैग किए गए जवाब

प्रोग्रामिंग लैंग्वेज पायथन से संबंधित डेटा विज्ञान प्रश्नों के लिए उपयोग करें। सामान्य कोडिंग प्रश्नों के लिए अभिप्रेत नहीं है (-> स्टैकओवरफ़्लो)।

5
क्या आधुनिक आर और / या पायथन लाइब्रेरी SQL को अप्रचलित बनाते हैं?
मैं एक ऐसे कार्यालय में काम करता हूँ जहाँ SQL सर्वर डेटा प्रोसेसिंग से लेकर सफाई तक की हर चीज़ की रीढ़ है। मेरे सहकर्मी आने वाले डेटा को व्यवस्थित रूप से संसाधित करने के लिए जटिल कार्यों और संग्रहीत प्रक्रियाओं को लिखने में माहिर हैं ताकि इसे मानकीकृत किया …
14 python  r  data-cleaning  data  sql 

4
पूर्व-प्रशिक्षित मॉडल भार के साथ एक नया शब्द 2vec मॉडल कैसे शुरू करें?
मैं Word2vector मॉडल का उपयोग और प्रशिक्षण के लिए अजगर में जेनसिम लाइब्रेरी का उपयोग कर रहा हूं। हाल ही में, मैं अपने मॉडल के वज़न को कुछ पूर्व-प्रशिक्षित वर्ड 2vec मॉडल जैसे (GoogleNewDataset pretrained मॉडल) के साथ शुरू करने पर विचार कर रहा था। मैं इसके साथ कुछ हफ़्ते …

8
क्या अजगर बड़े डेटा के लिए उपयुक्त है
मैंने इस पोस्ट में पढ़ा कि क्या बिग डेटा के लिए R भाषा उपयुक्त है जो बड़ा डेटा बनाता है 5TB, और जबकि यह इस प्रकार के डेटा के साथ काम करने की व्यवहार्यता के बारे में जानकारी प्रदान करने का एक अच्छा काम Rकरता है Python। मैं सोच रहा …
14 bigdata  python 

6
पायथन में अच्छा "लगातार अनुक्रम खनन" संकुल?
क्या किसी ने MLLib में FPM के अलावा किसी अच्छे "लगातार अनुक्रम खनन" पैकेज का उपयोग (पसंद) किया है? मैं एक स्थिर पैकेज की तलाश कर रहा हूं, जो लोगों द्वारा अभी भी बनाए रखा गया है। धन्यवाद!

1
XGBRegressor बनाम xgboost.train विशाल गति अंतर?
यदि मैं निम्नलिखित कोड का उपयोग करके अपने मॉडल को प्रशिक्षित करता हूं: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) यह लगभग 1 मिनट में समाप्त होता है। …

1
टाइमस्टैम्प डेटाटाइप के लिए int का एक पांडा कॉलम बदलें
मेरे पास एक डेटाफ्रेम है जिसमें अन्य चीजों के अलावा, 1970-1-1 के बाद से मिली मिलीसेकंड की संख्या का एक कॉलम शामिल है। मुझे इनस्टेट्स के इन कॉलम को टाइमस्टैम्प डेटा में बदलने की आवश्यकता है, इसलिए मैं आखिरकार इसे टाइमस्टैम्प कॉलम श्रृंखला में एक श्रृंखला में जोड़कर डेटाटाइम के …

5
स्किकिट-रैंडम फॉरेस्ट के साथ फ़ीचर महत्व बहुत उच्च मानक विचलन दर्शाता है
मैं scikit- रैंडम फॉरेस्ट क्लासिफायरियर का उपयोग कर रहा हूं और मैं इस उदाहरण में फीचर महत्व को प्लॉट करना चाहता हूं । हालांकि मेरा परिणाम पूरी तरह से अलग है, इस मायने में कि फीचर महत्व मानक विचलन लगभग हमेशा फीचर महत्व से बड़ा है (संलग्न छवि देखें)। क्या …

1
मल्टी-डाइमेंशनल और मल्टीवीरेट टाइम-सीरीज़ का पूर्वानुमान (RNN / LSTM) केरस
मैं यह समझने की कोशिश कर रहा हूं कि कैरस (या टेन्सरफ्लो) का उपयोग करके एक बहुआयामी और बहुभिन्नरूपी श्रृंखला के पूर्वानुमान बनाने के लिए डेटा का प्रतिनिधित्व और आकार कैसे करें, लेकिन डेटा को कैसे प्रस्तुत किया जाए, इसके बारे में कई ब्लॉग पोस्ट / ट्यूटोरियल / प्रलेखन पढ़ने …
12 python  keras  rnn  lstm 

2
सत्यापन हानि और सटीकता स्थिर रहती है
मैं मेडिकल इमेज के सेट पर इस पेपर को लागू करने की कोशिश कर रहा हूं । मैं इसे कैरस में कर रहा हूं। नेटवर्क में अनिवार्य रूप से 4 कनैक्ट और अधिकतम-पूल लेयर होते हैं, जिसके बाद पूरी तरह से कनेक्टेड लेयर और सॉफ्ट मैक्स क्लासिफायर होता है। जहां …

3
एनएलटीके में एनईआर के बारे में मदद
मैं अजगर का उपयोग करते हुए एनएलटीके में कुछ समय के लिए काम कर रहा हूं। मुझे जो समस्या आ रही है, वह यह है कि मेरे कस्टम डेटा के साथ एनएलटीके में एनईआर को प्रशिक्षण देने के लिए उनकी कोई मदद उपलब्ध नहीं है। उन्होंने MaxEnt का उपयोग किया …

1
मुझे कितने LSTM सेल का उपयोग करना चाहिए?
क्या LSTM कोशिकाओं की न्यूनतम, अधिकतम और "उचित" राशि से संबंधित अंगूठे (या वास्तविक नियम) के कोई नियम हैं जिनका मुझे उपयोग करना चाहिए? विशेष रूप से मैं कर रहा हूँ से संबंधित BasicLSTMCell TensorFlow और से num_unitsसंपत्ति। कृपया मान लें कि मेरे पास एक वर्गीकरण समस्या है जिसे परिभाषित …
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

2
बड़े डेटासेट के लिए कुशल आयामी कमी
मेरे पास ~ 1M पंक्तियों और ~ 500K विरल विशेषताओं वाला एक डेटासेट है। मैं 1K-5K सघन सुविधाओं के क्रम में कहीं न कहीं आयामीता कम करना चाहता हूं। sklearn.decomposition.PCAविरल डेटा पर काम नहीं करता है, और मैं का उपयोग करने की कोशिश की है, sklearn.decomposition.TruncatedSVDलेकिन बहुत जल्दी एक स्मृति …

1
scikit-CPU उपयोग और मेमोरी पर n_jobs पैरामीटर सीखें
स्किकिट-लर्न पर अधिकांश अनुमानकों में, समानांतर नौकरियों का उपयोग करने के लिए / विधियों n_jobsमें एक पैरामीटर है । मैंने देखा कि सिर्फ 1 पायथन प्रक्रिया बनाने के लिए इसे स्थापित करने और कोर को अधिकतम किया गया, जिससे सीपीयू का उपयोग शीर्ष पर 2500% तक पहुंच गया। यह इसे …

2
मैं यादृच्छिक वन वर्गीकरण के लिए श्रेणीबद्ध डेटा प्रकार कैसे फिट कर सकता हूं?
मुझे रैंडम फ़ॉरेस्ट अल्गोरिथम लागू करके एक प्रशिक्षण डाटासेट की सटीकता खोजने की आवश्यकता है। लेकिन मेरे डेटा सेट का प्रकार स्पष्ट और संख्यात्मक दोनों हैं। जब मैंने उन आंकड़ों को फिट करने की कोशिश की, तो मुझे एक त्रुटि मिली। 'इनपुट में NaN, अनंत या dtype (' float32 ') …

3
किसी स्थिर मान द्वारा pyspark डेटाफ़्रेम में सभी संख्यात्मक मान बदलें
'Null' एलिमेंट्स और न्यूमेरिक एलिमेंट्स से मिलकर pyspark डेटफ्रेम पर विचार करें। सामान्य तौर पर, संख्यात्मक तत्वों के अलग-अलग मूल्य होते हैं। डेटाफ़्रेम के सभी संख्यात्मक मानों को एक स्थिर संख्यात्मक मान (उदाहरण 1 मान द्वारा) कैसे बदलना संभव है? अग्रिम में धन्यवाद! उदाहरण के लिए pyspark डेटाफ्रेम: start 123c10.04−1nullc21null1.2c31.35−1.2nullc1c2c310.0411.352−1null−1.23null1.2null …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.