exponential पर टैग किए गए जवाब

पॉसों प्रक्रिया में घटनाओं के बीच के समय का वर्णन करने वाला एक वितरण; ज्यामितीय वितरण का एक सतत एनालॉग।

3
व्युत्क्रम रूपांतर के बजाय एहरेंस और डाइटर (1972) की विधि का उपयोग कर एक घातीय यादृच्छिक जनरेटर के फायदे क्या हैं?
मेरा प्रश्न आर के अंतर्निहित घातीय यादृच्छिक संख्या जनरेटर, फ़ंक्शन से प्रेरित है rexp()। जब तेजी से वितरित यादृच्छिक संख्याओं को उत्पन्न करने की कोशिश की जा रही है, तो कई पाठ्यपुस्तक इस विकिपीडिया पृष्ठ में उल्लिखित व्युत्क्रम परिवर्तन विधि की सिफारिश करती हैं । मुझे पता है कि इस …

2
ची-वर्ग चर के अनंत संग्रह के आदेश के आंकड़े (जैसे, न्यूनतम)?
यह मेरा पहला अवसर है, इसलिए कृपया मुझे बताएं कि क्या मैं किसी भी तरह से अपने प्रश्न को स्पष्ट कर सकता हूं (incl। स्वरूपण, टैग, आदि)। (और उम्मीद है कि मैं बाद में संपादित कर सकता हूं!) मैंने संदर्भ खोजने की कोशिश की, और प्रेरण का उपयोग करके खुद …

1
आर / एमजीसीवीवी: क्यों टी () और टीआई () टेंसर उत्पाद विभिन्न सतहों का उत्पादन करते हैं?
mgcvके लिए पैकेज Rफिटिंग टेन्सर उत्पाद बातचीत के लिए दो कार्य करता है: te()और ti()। मैं दोनों के बीच श्रम के बुनियादी विभाजन को समझता हूं (गैर-रैखिक बातचीत को फिट करना बनाम इस बातचीत को मुख्य प्रभावों और एक इंटरैक्शन में विघटित करना)। क्या मुझे समझ नहीं आता क्यों है …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
उलटा घातीय वितरण का मतलब
यादृच्छिक चर को देखते हुए , का माध्य और विचरण क्या है ?Y= ईx p ( λ )Y=Exp(λ)Y = Exp(\lambda)जी = १YG=1YG=\dfrac{1}{Y} मैं उलटा गामा वितरण को देखता हूं, लेकिन माध्य और विचरण केवल और क्रमशः परिभाषित किए जाते हैं ...α > 2α > 1α>1\alpha>1α > 2α>2\alpha>2

1
की MLE है
मान लीजिए ( एक्स), वाई)(X,Y)(X,Y) में पीडीएफ है चθ( एक्स , वाई) = ई- ( एक्स / θ + θ y)1x > 0 , y> 0,θ > ०fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 नमूना का घनत्व ( एक्स , वाई ) = ( एक्स )मैं, वाईमैं)1 ≤ i ≤ n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} …

1
एक रिक्ति और नमूना माध्य का अनुपात वितरण क्या है?
चलो मतलब के साथ आईआईडी घातीय यादृच्छिक चर का एक नमूना हो , और इस नमूने से आँकड़े हो। Let ।X1,…,XnX1,…,XnX_1,\dots,X_nββ\betaX(1),…,X(n)X(1),…,X(n)X_{(1)},\dots,X_{(n)}X¯=1n∑ni=1XiX¯=1n∑i=1nXi\bar X = \frac{1}{n}\sum_{i=1}^n X_i परिभाषित करेंयह दिखाया जा सकता है कि प्रत्येक घातीय है, जिसका मतलब ।Wi=X(i+1)−X(i) ∀ 1≤i≤n−1.Wi=X(i+1)−X(i) ∀ 1≤i≤n−1.W_i=X_{(i+1)}-X_{(i)}\ \forall\ 1 \leq i \leq n-1\,. WiWiW_iβi=βn−iβi=βn−i\beta_i=\frac{\beta}{n-i} प्रश्न: …

1
कम से कम घातीय वितरण के लिए अधिकतम संभावना अनुमानक
मैं इस समस्या को हल करने के तरीके पर अटका हुआ हूं। तो, हमारे पास लिए यादृच्छिक चर, और दो क्रम हैं । अब, और पैरामीटर और साथ स्वतंत्र घातीय वितरण हैं । हालाँकि, हम और देखने के बजाय और निरीक्षण करते हैं ।XiXiX_iYiYiY_ii=1,...,ni=1,...,ni=1,...,nXXXYYYλλ\lambdaμμ\muXXXYYYZZZWWW Z=min(Xi,Yi)Z=min(Xi,Yi)Z=\min(X_i,Y_i) और W=1W=1W=1 यदि Zi=XiZi=XiZ_i=X_i और …

2
दो नमूनों के माध्य की तुलना कैसे करें जिनका डेटा घातांक वितरण में फिट बैठता है
मेरे पास डेटा के दो नमूने हैं, एक आधार रेखा नमूना है, और एक उपचार नमूना है। परिकल्पना यह है कि उपचार के नमूने का आधारभूत नमूने की तुलना में अधिक मतलब है। दोनों नमूने आकार में घातीय हैं। चूंकि डेटा बड़ा है, इसलिए मेरे पास केवल प्रत्येक नमूने के …

1
सामान्य रूप से वितरित घड़ी की खराबी के लिए सही
मेरे पास एक प्रयोग है जो दुनिया भर में वितरित सैकड़ों कंप्यूटरों पर निष्पादित किया जाता है जो कुछ घटनाओं की घटनाओं को मापता है। प्रत्येक घटना एक दूसरे पर निर्भर करती है इसलिए मैं उन्हें बढ़ते क्रम में आदेश दे सकता हूं और फिर समय के अंतर की गणना …

1
कौन सा गहन शिक्षण मॉडल उन श्रेणियों को वर्गीकृत कर सकता है जो पारस्परिक रूप से अनन्य नहीं हैं
उदाहरण: मेरे पास नौकरी के विवरण में एक वाक्य है: "यूके में जावा वरिष्ठ इंजीनियर"। मैं इसे 2 श्रेणियों के रूप में भविष्यवाणी करने के लिए एक गहरे शिक्षण मॉडल का उपयोग करना चाहता हूं: English और IT jobs। यदि मैं पारंपरिक वर्गीकरण मॉडल का उपयोग करता हूं, तो यह …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
सिमुलेशन के साथ महत्व के नमूने के लिए अपेक्षित कवरेज से कम
मैं इस सवाल का जवाब देने की कोशिश कर रहा था कि आर में महत्व नमूनाकरण विधि के साथ अभिन्न मूल्यांकन करें । मूल रूप से, उपयोगकर्ता की गणना करने की आवश्यकता है ∫π0च( x ) dx =∫π01क्योंकि( x))2+एक्स2घएक्स∫0πच(एक्स)घएक्स=∫0π1क्योंकि⁡(एक्स)2+एक्स2घएक्स\int_{0}^{\pi}f(x)dx=\int_{0}^{\pi}\frac{1}{\cos(x)^2+x^2}dx महत्व वितरण के रूप में घातीय वितरण का उपयोग करना क्ष( …

1
संभावना समारोह की गणना कैसे करें
3 इलेक्ट्रॉनिक उपकरणों के जीवनकाल हैं X1=3,X2=1.5,X1=3,X2=1.5,X_{1} = 3, X_{2} = 1.5, तथा X3=2.1X3=2.1X_{3} = 2.1। पैरामीटर के साथ घातांक वितरण से THe यादृच्छिक चर को आकार 3 के यादृच्छिक नमूने के रूप में तैयार किया गया थाθθ\theta। संभावना समारोह, के लिए हैθ >0θ>0\theta > 0 च3( x | θ …

1
मनाया बनाम अपेक्षित घटनाओं की तुलना कैसे करें?
मान लीजिए कि मेरे पास 4 संभावित घटनाओं की आवृत्तियों का एक नमूना है: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 और मुझे होने वाली मेरी घटनाओं की संभावित संभावनाएं हैं: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 मेरी चार …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
डेटा के लिए आरओसी वक्र की गणना करें
तो, मेरे पास 16 परीक्षण हैं जिनमें मैं एक व्यक्ति को बॉयोमीट्रिक विशेषता से हैमिंग दूरी का उपयोग करके प्रमाणित करने की कोशिश कर रहा हूं। मेरी दहलीज 3.5 पर सेट है। मेरा डेटा नीचे है और केवल परीक्षण 1 एक सच्चा सकारात्मक है: Trial Hamming Distance 1 0.34 2 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.