loss-functions पर टैग किए गए जवाब

एक फ़ंक्शन एक मॉडल के अनुसार मनाया डेटा और अनुमानित मूल्यों के बीच अंतर को निर्धारित करने के लिए उपयोग किया जाता है। नुकसान कार्यों का न्यूनतमकरण मॉडल के मापदंडों का अनुमान लगाने का एक तरीका है।

5
तंत्रिका नेटवर्क में मल्टी-क्लास, मल्टी-लेबल वर्गीकरण कार्यों के लिए क्या नुकसान कार्य करता है?
मैं एन-कक्षाओं में वस्तुओं के एक सेट को वर्गीकृत करने के लिए एक तंत्रिका नेटवर्क का प्रशिक्षण दे रहा हूं। प्रत्येक वस्तु एक ही समय में कई वर्गों (मल्टी-क्लास, मल्टी-लेबल) से संबंधित हो सकती है। मैंने पढ़ा है कि बहु-वर्ग की समस्याओं के लिए आम तौर पर एमएमएस के बजाय …

3
मशीन लर्निंग: क्या मुझे बाइनरी भविष्यवाणियों के लिए एक श्रेणीगत क्रॉस एन्ट्रापी या बाइनरी क्रॉस एन्ट्रापी नुकसान का उपयोग करना चाहिए?
सबसे पहले, मुझे एहसास हुआ कि अगर मुझे द्विआधारी भविष्यवाणियां करने की आवश्यकता है, तो मुझे एक-गर्म-एन्कोडिंग के माध्यम से कम से कम दो कक्षाएं बनाना होगा। क्या ये सही है? हालांकि, केवल एक वर्ग के साथ भविष्यवाणियों के लिए बाइनरी क्रॉस एन्ट्रॉपी है? अगर मैं एक श्रेणीगत क्रॉस एन्ट्रापी …

5
तंत्रिका नेटवर्क का लागत समारोह गैर-उत्तल है?
तंत्रिका नेटवर्क की लागत फ़ंक्शन , और यह गैर-उत्तल होने का दावा किया जाता है । मुझे यह समझ में नहीं आया कि यह ऐसा क्यों है, क्योंकि मैं देख रहा हूं कि यह लॉजिस्टिक रिग्रेशन के लागत समारोह के समान है, है ना?जम्मू( डब्ल्यू।), बी )J(W,b)J(W,b) यदि यह गैर-उत्तल …

2
ओएलएस रैखिक प्रतिगमन में लागत समारोह
मशीन सीखने के बारे में कौरसेरा पर एंड्रयू एनजी द्वारा दिए गए रैखिक प्रतिगमन पर एक व्याख्यान से मैं थोड़ा भ्रमित हूं। वहां, उन्होंने एक लागत समारोह दिया जो योग के वर्गों को न्यूनतम करता है: 12m∑i=1m(hθ(X(i))−Y(i))212m∑i=1m(hθ(X(i))−Y(i))2 \frac{1}{2m} \sum _{i=1}^m \left(h_\theta(X^{(i)})-Y^{(i)}\right)^2 मैं समझता हूं कि कहां से आता है। मुझे …

1
हानि फ़ंक्शन और त्रुटि फ़ंक्शन के बीच अंतर क्या है?
"हानि" शब्द "त्रुटि" का पर्याय है? क्या परिभाषा में अंतर है? इसके अलावा, "हानि" शब्द का मूल क्या है? एनबी: यहां उल्लिखित त्रुटि फ़ंक्शन सामान्य त्रुटि के साथ भ्रमित नहीं होना है।

4
लॉजिस्टिक रिग्रेशन के लिए कौन सा नुकसान कार्य सही है?
मैंने लॉजिस्टिक रिग्रेशन के लिए लॉस फ़ंक्शन के दो संस्करणों के बारे में पढ़ा, उनमें से कौन सही है और क्यों? से मशीन लर्निंग , झोउ ZH (चीनी में), के साथ :β=(w,b) and βTx=wTx+bβ=(w,b) and βTx=wTx+b\beta = (w, b)\text{ and }\beta^Tx=w^Tx +b l(β)=∑i=1m(−yiβTxi+ln(1+eβTxi))(1)(1)l(β)=∑i=1m(−yiβTxi+ln⁡(1+eβTxi))l(\beta) = \sum\limits_{i=1}^{m}\Big(-y_i\beta^Tx_i+\ln(1+e^{\beta^Tx_i})\Big) \tag 1 मेरे कॉलेज के …

5
मशीन लर्निंग में पदानुक्रमित / नेस्टेड डेटा से कैसे निपटें
मैं अपनी समस्या को एक उदाहरण से समझाता हूँ। मान लीजिए कि आप किसी व्यक्ति की आय का अनुमान लगाना चाहते हैं, जो कुछ विशेषताएं बताती है: {आयु, लिंग, देश, क्षेत्र, शहर}। आपके पास एक प्रशिक्षण डाटासेट है train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
टेलर एक्सपेंशन के साथ XGBoost लॉस फंक्शन अप्रूवल
उदाहरण के लिए, पर XGBoost मॉडल का उद्देश्य समारोह ले 'वें यात्रा:ttt L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) जहां नुकसान समारोह है, है 'वें पेड़ उत्पादन और नियमितीकरण है। तेजी से गणना के लिए (कई) महत्वपूर्ण चरणों में से एक है:ℓℓ\ellftftf_ttttΩΩ\Omega L(t)≈∑i=1nℓ(yi,y^(t−1)i)+gtft(xi)+12hif2t(xi)+Ω(ft),L(t)≈∑i=1nℓ(yi,y^i(t−1))+gtft(xi)+12hift2(xi)+Ω(ft),\mathcal{L}^{(t)}\approx \sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)})+g_tf_t(\mathbf{x}_i)+\frac{1}{2}h_if_t^2(\mathbf{x}_i)+\Omega(f_t), जहां gigig_i और hihih_i नुकसान फ़ंक्शन के पहले और दूसरे डेरिवेटिव हैं। …

3
लगभग 0-1 नुकसान के लिए वर्गीकरण में विभिन्न नुकसान कार्यों को चुनने के प्रभाव क्या हैं
हम जानते हैं कि कुछ उद्देश्य कार्यों को अनुकूलित करना आसान है और कुछ कठिन हैं। और कई नुकसान कार्य हैं जिन्हें हम उपयोग करना चाहते हैं लेकिन मुश्किल से उपयोग करते हैं, उदाहरण के लिए 0-1 नुकसान। तो हमें काम करने के लिए कुछ प्रॉक्सी लॉस फंक्शन्स मिलते हैं। …

2
पासा-गुणांक हानि फ़ंक्शन बनाम क्रॉस-एन्ट्रॉपी
जब एक पिक्सेल विभाजन तंत्रिका नेटवर्क, जैसे पूरी तरह से दृढ़ नेटवर्क, को प्रशिक्षित करते हैं, तो आप क्रॉस-एन्ट्रापी लॉस फ़ंक्शन बनाम डाइस-गुणांक हानि फ़ंक्शन का उपयोग करने का निर्णय कैसे लेते हैं? मुझे लगता है कि यह एक छोटा सवाल है, लेकिन यह निश्चित नहीं है कि अन्य जानकारी …

1
प्रशिक्षण हानि नीचे और ऊपर फिर जाती है। क्या हो रहा है?
मेरा प्रशिक्षण नुकसान नीचे और फिर ऊपर जाता है। यह बहुत ही अजीब है। क्रॉस-वेलिडेशन लॉस प्रशिक्षण हानि को ट्रैक करता है। क्या हो रहा है? मेरे पास दो स्टैक्ड LSTMS इस प्रकार हैं (करेस पर): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), len(nd.char_indices)))) model.add(Dropout(0.2)) model.add(LSTM(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(nd.categories))) model.add(Activation('sigmoid')) model.compile(loss='binary_crossentropy', …

3
हिंग की हानि का क्रम
मैं मूल ढाल वंश को लागू करने की कोशिश कर रहा हूं और मैं इसे एक काज हानि समारोह के साथ परीक्षण कर रहा हूं अर्थात एलकाज= अधिकतम ( 0 , 1 - y x ⋅ w )एलकाज=अधिकतम(0,1-y एक्स⋅w)l_{\text{hinge}} = \max(0,1-y\ \boldsymbol{x}\cdot\boldsymbol{w}) । हालांकि, मैं काज हानि के ढाल के …

2
मात्रात्मक प्रतिगमन: हानि कार्य
मैं मात्रात्मक प्रतिगमन को समझने की कोशिश कर रहा हूं, लेकिन एक चीज जो मुझे परेशान करती है, वह है हानि कार्य का विकल्प। ρτ(u)=u(τ−1{u&lt;0})ρτ(u)=u(τ−1{u&lt;0})\rho_\tau(u) = u(\tau-1_{\{u<0\}}) मुझे पता है कि की उम्मीद की न्यूनतम के बराबर है -quantile, लेकिन सहज ज्ञान युक्त कारण इस समारोह के साथ शुरू करने …

2
प्रतिगमन के लिए एक असममित हानि फ़ंक्शन को कैसे डिज़ाइन और कार्यान्वित किया जाए?
संकट प्रतिगमन में आमतौर पर एक नमूना के लिए माध्य चुकता त्रुटि (MSE) की गणना की जाती है : एक भविष्यवक्ता की गुणवत्ता को मापने के लिए ।MSE = 1nΣमैं = १n( जी( x)मैं) - जीˆ( x)मैं) )2MSE=1n∑i=1n(g(xi)−g^(xi))2 \text{MSE} = \frac{1}{n} \sum_{i=1}^n\left(g(x_i) - \widehat{g}(x_i)\right)^2 अभी मैं एक प्रतिगमन समस्या पर …

4
L1 प्रतिगमन औसत दर्जे का अनुमान लगाता है जबकि L2 प्रतिगमन अनुमानों का मतलब है?
इसलिए मुझसे एक सवाल पूछा गया कि केंद्रीय उपाय L1 (यानी, लासो) और L2 (यानी रिज रिग्रेशन) का अनुमान है। इसका उत्तर L1 = माध्यिका और L2 = माध्य है। क्या इसका किसी प्रकार का सहज तर्क है? या क्या यह बीजगणितीय रूप से निर्धारित किया जाना है? यदि हां, …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.