यदि मेरा वितरण मल्टीमॉडल है तो परीक्षण कैसे करें?


21

जब मैं अपने डेटा का हिस्टोग्राम प्लॉट करता हूं, तो इसके दो शिखर होते हैं:

हिस्टोग्राम

क्या इसका मतलब एक संभावित बहु-मोडल वितरण है? मैं dip.testआर ( library(diptest)) में भाग गया , और आउटपुट है:

D = 0.0275, p-value = 0.7913

मैं यह निष्कर्ष निकाल सकता हूं कि मेरे डेटा में बहु-मॉडल वितरण है?

डेटा

10346 13698 13894 19854 28066 26620 27066 16658  9221 13578 11483 10390 11126 13487 
15851 16116 24102 30892 25081 14067 10433 15591  8639 10345 10639 15796 14507 21289 
25444 26149 23612 19671 12447 13535 10667 11255  8442 11546 15958 21058 28088 23827 
30707 19653 12791 13463 11465 12326 12277 12769 18341 19140 24590 28277 22694 15489 
11070 11002 11579  9834  9364 15128 15147 18499 25134 32116 24475 21952 10272 15404 
13079 10633 10761 13714 16073 23335 29822 26800 31489 19780 12238 15318  9646 11786 
10906 13056 17599 22524 25057 28809 27880 19912 12319 18240 11934 10290 11304 16092 
15911 24671 31081 27716 25388 22665 10603 14409 10736  9651 12533 17546 16863 23598 
25867 31774 24216 20448 12548 15129 11687 11581

3
अपने हिस्टोग्राम में अधिक डिब्बे का उपयोग करें । मैं दो बार के बारे में सुझाव देता हूं
Glen_b -Reinstate मोनिका

1
इस उत्तर में नौ विभिन्न परीक्षणों का उल्लेख है , जिनमें से कुछ आपकी स्थिति के लिए प्रासंगिक हो सकते हैं।
Glen_b -Reinstate मोनिका

1
यह पेपर आपके लिए उपयोगी होने की संभावना है, यदि आपने इसे पहले से नहीं देखा है (यह भी अनुवर्ती है )
इयोन

जवाबों:


15

@NickCox ने एक दिलचस्प रणनीति (+1) प्रस्तुत की है। मैं इसे प्रकृति में अधिक खोजपूर्ण समझ सकता हूं, हालांकि इस चिंता के कारण कि @whuber बताते हैं

मुझे एक और रणनीति का सुझाव दें: आप एक गाऊसी परिमित मिश्रण मॉडल फिट कर सकते हैं। ध्यान दें कि यह बहुत मजबूत धारणा बनाता है कि आपका डेटा एक या अधिक सच्चे मानदंडों से तैयार किया गया है। जैसा कि @whuber और @NickCox दोनों टिप्पणी में बताते हैं, इन आंकड़ों की ठोस व्याख्या के बिना-इस सिद्धांत का समर्थन करने के लिए अच्छी तरह से स्थापित सिद्धांत द्वारा समर्थित है, इस रणनीति को खोजपूर्ण भी माना जाना चाहिए।

सबसे पहले, आइए @ Glen_b के सुझाव का पालन करें और अपने डेटा को दो बार कई डिब्बे का उपयोग करके देखें:

यहां छवि विवरण दर्ज करें

हम अभी भी दो मोड देखते हैं; यदि कुछ भी हो, तो वे यहां और अधिक स्पष्ट रूप से आते हैं। (यह भी ध्यान दें कि कर्नेल घनत्व रेखा समान होनी चाहिए, लेकिन बड़ी संख्या में डिब्बे के कारण अधिक फैलता हुआ प्रतीत होता है।)

अब एक गाऊसी परिमित मिश्रण मॉडल को फिट करने देता है। में R, आप उपयोग कर सकते हैं Mclustयह करने के लिए पैकेज:

library(mclust)
x.gmm = Mclust(x)
summary(x.gmm)
# ----------------------------------------------------
# Gaussian finite mixture model fitted by EM algorithm 
# ----------------------------------------------------
#   
# Mclust V (univariate, unequal variance) model with 2 components:
#   
#   log.likelihood   n df       BIC       ICL
#        -1200.874 120  5 -2425.686 -2442.719
# 
# Clustering table:
#  1  2 
# 68 52 

दो सामान्य घटक बीआईसी का अनुकूलन करते हैं। तुलना के लिए, हम एक घटक को फिट करने के लिए बाध्य कर सकते हैं और संभावना अनुपात परीक्षण कर सकते हैं:

x.gmm.1 = Mclust(x, G=1)
logLik(x.gmm.1)
# 'log Lik.' -1226.241 (df=2)
logLik(x.gmm)-logLik(x.gmm.1)
# 'log Lik.' 25.36657 (df=5)
1-pchisq(25.36657, df=3)  # [1] 1.294187e-05

इससे यह पता चलता है कि यदि आप एकल सच सामान्य वितरण से आते हैं, तो यह बहुत कम संभावना है कि आप डेटा को असमान से प्राप्त करेंगे।

कुछ लोग यहां पैरामीट्रिक परीक्षण का उपयोग करने में सहज महसूस नहीं करते हैं (हालांकि यदि मान्यताएं हैं, तो मुझे किसी समस्या का पता नहीं है)। एक बहुत व्यापक रूप से लागू तकनीक पैरामीट्रिक बूटस्ट्रैप क्रॉस-फिटिंग विधि का उपयोग करना है (मैं यहां एल्गोरिदम का वर्णन करता हूं )। हम इसे इन डेटा पर लागू करने का प्रयास कर सकते हैं:

x.gmm$parameters
# $mean
# 12346.98 23322.06 
# $variance$sigmasq
# [1]  4514863 24582180
x.gmm.1$parameters
# $mean
# [1] 17520.91
# $variance$sigmasq
# [1] 43989870

set.seed(7809)
B = 10000;    x2.d = vector(length=B);    x1.d = vector(length=B)
for(i in 1:B){
  x2      = c(rnorm(68, mean=12346.98, sd=sqrt( 4514863)), 
              rnorm(52, mean=23322.06, sd=sqrt(24582180)) )
  x1      = rnorm( 120, mean=17520.91, sd=sqrt(43989870))
  x2.d[i] = Mclust(x2, G=2)$loglik - Mclust(x2, G=1)$loglik
  x1.d[i] = Mclust(x1, G=2)$loglik - Mclust(x1, G=1)$loglik
}
x2.d = sort(x2.d);  x1.d = sort(x1.d)
summary(x1.d)
#     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
# -0.29070 -0.02124  0.41460  0.88760  1.36700 14.01000 
summary(x2.d)
#   Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
#  9.006  23.770  27.500  27.760  31.350  53.500 

यहां छवि विवरण दर्ज करें

सारांश आंकड़े, और नमूना वितरण के लिए कर्नेल घनत्व प्लॉट कई दिलचस्प विशेषताएं दिखाते हैं। एकल घटक मॉडल के लिए लॉग की संभावना दो घटक फिट की तुलना में शायद ही कभी अधिक होती है, यहां तक ​​कि जब सच्चे डेटा निर्माण प्रक्रिया में केवल एक घटक होता है, और जब यह अधिक होता है, तो राशि तुच्छ होती है। उन मॉडलों की तुलना करने का विचार जो डेटा को फिट करने की उनकी क्षमता में भिन्न हैं, PBCM के पीछे की प्रेरणाओं में से एक है। दो नमूने वितरण बमुश्किल ओवरलैप करते हैं; केवल .35% x2.dअधिकतम से कम हैंx1.dमूल्य। यदि आपने दो घटक मॉडल का चयन किया है, तो लॉग संभावना में अंतर> 9.7 था, तो आप गलत तरीके से एक घटक मॉडल .01% और दो घटक मॉडल .02% समय का चयन करेंगे। ये अत्यधिक भेदभावपूर्ण हैं। यदि, दूसरी ओर, आपने एक घटक मॉडल को एक शून्य परिकल्पना के रूप में उपयोग करने के लिए चुना है, तो आपका मनाया परिणाम पर्याप्त रूप से छोटा है क्योंकि 10,000 पुनरावृत्तियों में अनुभवजन्य नमूना वितरण में नहीं दिखाया गया है। हम 3 के नियम का उपयोग कर सकते हैं ( यहां देखें ) पी-वैल्यू पर एक ऊपरी बाउंड को रखने के लिए, अर्थात्, हम अनुमान लगाते हैं कि आपका पी-वैल्यू .0003 से कम है। अर्थात्, यह अत्यधिक महत्वपूर्ण है।

पी<.०,००,००१पी<.001), और अंतर्निहित घटक, क्या उनका अस्तित्व होना चाहिए, या तो पूरी तरह से सामान्य होने की गारंटी नहीं है। यदि आपको यह उचित लगता है कि आपका डेटा एक सकारात्मक रूप से तिरछे वितरण से आ सकता है, तो सामान्य के बजाय, द्विअर्थी का यह स्तर विशिष्ट रूप से भिन्नता के भीतर हो सकता है, जो कि मुझे संदेह है कि डिप टेस्ट कह रहा है।


1
इस दृष्टिकोण के साथ समस्या यह है कि जिस विकल्प की आप गॉसियन मिश्रण से तुलना कर रहे हैं वह बहुत उचित नहीं है। एक अधिक उचित यह होगा कि वितरण किसी प्रकार का सही-तिरछा हो, जैसे कि गामा। यह लगभग एक दिया हुआ है कि एक मिश्रण लगभग किसी भी तिरछे डाटासेट को "काफी" फिट करने जा रहा है, जो एक एकल गाऊसी की तुलना में बेहतर होगा यह फिट होगा।
whuber

तुम सही हो, @whuber। मैंने स्पष्ट रूप से उस बिंदु को बनाने की कोशिश की। मुझे यकीन नहीं है कि गामा एफएमएम कैसे करना है, लेकिन यह बेहतर होगा।
गूँग -

1
चूंकि यह खोजपूर्ण है, इसलिए एक विचार यह होगा कि मूल वितरण को समरूपता में बदलने का प्रयास किया जाए (शायद एक ऑफसेट बॉक्स-कॉक्स परिवर्तन के साथ, डेटा के कुछ मात्राओं से मजबूत अनुमान लगाया गया है) और अपने दृष्टिकोण को फिर से आज़माएं। बेशक आप प्रति se "महत्व" के बारे में बात नहीं करेंगे, लेकिन संभावना के विश्लेषण से अभी भी खुलासा हो सकता है।
whuber

@ जब भी, मैंने ऐसा किया, लेकिन मैंने केवल इसे पारित करने में उल्लेख किया है। (इष्टतम बॉक्स-कॉक्स परिवर्तन उलटा वर्गमूल है।) आपको एक ही परिणाम मिलता है, लेकिन पी-मान (अभी भी अत्यधिक, लेकिन) कम महत्वपूर्ण हैं।
गूँग - मोनिका

3
मुझे यह विचार बहुत पसंद है कि आपको मॉडलिंग करना चाहिए जो आपको लगता है कि निर्माण प्रक्रिया है। मेरी समस्या यह है कि जब गाऊसी मिश्रण अच्छी तरह से काम करते हैं, तो मुझे लगता है कि इसकी एक ठोस व्याख्या होनी चाहिए। अगर ओपी ने हमें और भी बताया कि डेटा क्या है तो कुछ बेहतर अनुमान हो सकते हैं।
निक कॉक्स

10

में @ निक के जवाब और टिप्पणियों विचारों पर के बाद, आप देख सकते हैं कि विस्तृत बैंडविड्थ आवश्यकताओं के होने के लिए सिर्फ माध्यमिक मोड बाहर समतल:

यहां छवि विवरण दर्ज करें

इस कर्नेल घनत्व अनुमान को समीपस्थ नल के रूप में लें - डेटा के निकटतम वितरण अभी भी अशक्त परिकल्पना के अनुरूप है कि यह एक असमान जनसंख्या से एक नमूना है - और इससे अनुकरण करें। नकली नमूनों में द्वितीयक मोड अक्सर इतना अलग नहीं दिखता है, और आपको बैंडविड्थ को उतना अधिक चौड़ा करने की आवश्यकता नहीं है जितना इसे बाहर समतल करने के लिए।

<कोड> यहां छवि विवरण दर्ज करें </ कोड>

इस दृष्टिकोण को औपचारिक रूप देते हुए सिल्वरमैन (1981) में दिए गए परीक्षण की ओर जाता है, "मोडेलिटी की जांच करने के लिए कर्नेल घनत्व अनुमानों का उपयोग करना", JRSS B , 43 , 1. श्वाइगर और होलज़मैन का silvermantestपैकेज इस परीक्षण को लागू करता है, और हॉल एंड यॉर्क द्वारा वर्णित अंशांकन प्रक्रिया भी ( 2001), "मल्टीमॉडेलिटी के लिए सिल्वरमैन के परीक्षण के अंशांकन पर", स्टेटिस्टिका सिनिका , 11 , पी 515, जो कि स्पर्शोन्मुख रूढ़िवाद के लिए समायोजित करता है। अंशांकन के बिना 0.08 के पी-मूल्यों और अंशांकन के साथ 0.02 के पी-मूल्यों में एक अशक्त परिकल्पना के साथ अपने डेटा पर परीक्षण करना। मैं यह जानने के लिए डुबकी परीक्षण से पर्याप्त परिचित नहीं हूं कि यह अलग क्यों हो सकता है।

आर कोड:

  # kernel density estimate for x using Sheather-Jones method to estimate b/w:
density(x, kernel="gaussian", bw="SJ") -> dens.SJ
  # tweak b/w until mode just disappears:
density(x, kernel="gaussian", bw=3160) -> prox.null
  # fill matrix with simulated samples from the proximal null:
x.sim <- matrix(NA, nrow=length(x), ncol=10)
for (i in 1:10){
  x.sim[ ,i] <- rnorm(length(x), sample(x, size=length(x), replace=T), prox.null$bw)
}
  # perform Silverman test without Hall-York calibration:
require(silvermantest)
silverman.test(x, k=1, M=10000, adjust=F)
  # perform Silverman test with Hall-York calibration:
silverman.test(x, k=1, M=10000, adjust=T)

+1। दिलचस्प! यहाँ किस कर्नेल का उपयोग किया जा रहा है? जैसा कि मैंने मंदता से याद किया, इस दृष्टिकोण के औपचारिक रूप के लिए गॉसियन गुठली का उपयोग करने के सूक्ष्म कारण हैं।
निक कॉक्स

@ निक: गॉसियन कर्नेल, लेकिन मुझे याद नहीं आ रहा है कि उसके लिए एक आकर्षक कारण है। प्रत्येक सिम्युलेटेड सैंपल को रिस्क्युलेट किया गया है, और एक रूढ़िवादी पूर्वाग्रह के लिए एक सुधार है जो मूल परीक्षण ने किया है - किसी ने कहा कि मुझे लगता है कि स्टोरी ने काम किया था।
Scortchi - को पुनः स्थापित मोनिका

@NickCox: क्षमा करें, बिल्कुल नहीं।
Scortchi - को पुनः स्थापित मोनिका

@Scortchi, मैंने आपके पाठ और कोड को थोड़ा मोड़ दिया। मुझे आशा है कि आपको कोई आपत्ति नहीं है। +1। इसके अलावा, आप खतरनाक दाएँ तीर असाइनमेंट ऑपरेटर का उपयोग करें ?! ओह मानवता ...
गुंग - को पुनः स्थापित मोनिका

2
यह वास्तव में बेहतर या बुरा नहीं है, लेकिन प्रोग्रामिंग में सम्मेलन को बाईं ओर अपने चरों को बताना है और उन्हें दाईं ओर सौंपा गया है। लोगों के बहुत से बाहर कर रहे हैं-> ; मैं सिर्फ भ्रामक हूं।
गंग -

7

चिंता करने वाली चीजों में शामिल हैं:

  1. डेटासेट का आकार। यह छोटा नहीं है, बड़ा नहीं है।

  2. हिस्टोग्राम मूल और बिन चौड़ाई पर आप जो देखते हैं उसकी निर्भरता। केवल एक ही विकल्प के साथ, आपको (और हमें) संवेदनशीलता का कोई पता नहीं है।

  3. घनत्व अनुमान में आपके लिए कर्नेल प्रकार और चौड़ाई और जो कुछ भी अन्य विकल्प हैं, उस पर निर्भरता। केवल एक ही विकल्प के साथ, आपको (और हमें) संवेदनशीलता का कोई पता नहीं है।

कहीं और मैंने अस्थायी रूप से सुझाव दिया है कि एक ठोस व्याख्या द्वारा और समान आकार के अन्य डेटासेट में समान मोडर्निटी को समझने की क्षमता के द्वारा मोड की विश्वसनीयता (लेकिन स्थापित नहीं) का समर्थन किया जाता है। (बड़ा बेहतर भी है ....)

हम यहाँ उन में से किसी पर भी टिप्पणी नहीं कर सकते। पुनरावृत्ति पर एक छोटा सा हैंडल यह तुलना करने के लिए है कि आपको एक ही आकार के बूटस्ट्रैप नमूनों के साथ क्या मिलता है। यहां स्टैटा का उपयोग करते हुए एक टोकन प्रयोग के परिणाम हैं, लेकिन आप जो देख रहे हैं, वह मनमाने ढंग से स्टाटा की चूक तक सीमित है, जिसे खुद को हवा से बाहर निकालने के रूप में प्रलेखित किया गया है । मुझे मूल डेटा के लिए और उसी से 24 बूटस्ट्रैप नमूनों के लिए घनत्व का अनुमान मिला है।

संकेत (और नहीं, कम नहीं) मुझे लगता है कि अनुभवी विश्लेषकों को आपके ग्राफ से किसी भी तरह का अनुमान होगा। बाएं हाथ का मोड अत्यधिक दोहराव वाला है और दाहिना हाथ विशिष्ट रूप से अधिक नाजुक है।

ध्यान दें कि इस बारे में एक अनिवार्यता है: चूंकि दाएं हाथ मोड के पास कम डेटा हैं, यह हमेशा बूटस्ट्रैप नमूने में फिर से दिखाई नहीं देगा। लेकिन यह प्रमुख बिंदु भी है।

यहां छवि विवरण दर्ज करें

ध्यान दें कि बिंदु 3. ऊपर अछूता रहता है। लेकिन परिणाम कहीं न कहीं एकतरफा और बिमोडल के बीच हैं।

रुचि रखने वालों के लिए, यह कोड है:

clear 
set scheme s1color 
set seed 2803 

mat data = (10346, 13698, 13894, 19854, 28066, 26620, 27066, 16658, 9221, 13578, 11483, 10390, 11126, 13487, 15851, 16116, 24102, 30892, 25081, 14067, 10433, 15591, 8639, 10345, 10639, 15796, 14507, 21289, 25444, 26149, 23612, 19671, 12447, 13535, 10667, 11255, 8442, 11546, 15958, 21058, 28088, 23827, 30707, 19653, 12791, 13463, 11465, 12326, 12277, 12769, 18341, 19140, 24590, 28277, 22694, 15489, 11070, 11002, 11579, 9834, 9364, 15128, 15147, 18499, 25134, 32116, 24475, 21952, 10272, 15404, 13079, 10633, 10761, 13714, 16073, 23335, 29822, 26800, 31489, 19780, 12238, 15318, 9646, 11786, 10906, 13056, 17599, 22524, 25057, 28809, 27880, 19912, 12319, 18240, 11934, 10290, 11304, 16092, 15911, 24671, 31081, 27716, 25388, 22665, 10603, 14409, 10736, 9651, 12533, 17546, 16863, 23598, 25867, 31774, 24216, 20448, 12548, 15129, 11687, 11581)
set obs `=colsof(data)' 
gen data = data[1,_n] 

gen index = . 

quietly forval j = 1/24 { 
    replace index = ceil(120 * runiform()) 
    gen data`j' = data[index]
    kdensity data`j' , nograph at(data) gen(xx`j' d`j') 
} 

kdensity data, nograph at(data) gen(xx d) 

local xstuff xtitle(data/1000) xla(10000 "10" 20000 "20" 30000 "30") sort 
local ystuff ysc(r(0 .0001)) yla(none) `ystuff'   

local i = 1 
local colour "orange" 
foreach v of var d d? d?? { 
    line `v' data, lc(`colour') `xstuff'  `ystuff' name(g`i', replace) 
    local colour "gs8" 
    local G `G' g`i' 
    local ++i 
} 

graph combine `G' 

+1 मुझे आपका बूटस्ट्रैप दृष्टिकोण पसंद है: भूखंडों का सरणी सभी को डेटा को बेहतर ढंग से समझने में मदद करता है। मैं सोच रहा हूं कि क्या स्टैट्टा बैंडविड्थ का अनुमान लगाता है कि वे प्लॉट संवेदनशील हो सकते हैं। मुझे संदेह है कि यह एक अंडर-पावर्ड टेस्ट में परिणाम कर सकता है क्योंकि इसका अनुमान शायद एक असमान धारणा पर आधारित है, जो अपेक्षाकृत कम बैंडविड्थ के लिए अग्रणी है। यहां तक ​​कि थोड़ा संकरा बैंडविड्थ का अनुमान दूसरे मोड को सभी बूटस्ट्रैप नमूनों में अधिक प्रमुख बना सकता है।
whuber

2
@ शुभंकर धन्यवाद! हमेशा की तरह, आप उन कमजोरियों पर ध्यान केंद्रित करते हैं, जिनके बारे में हमें चिंता करने की जरूरत है, और मैं सहमत हूं। जैसे ही कर्नेल बैंडविंड बढ़ते हैं, असमानता की उपस्थिति अपरिहार्यता की ओर बढ़ जाती है। इसके विपरीत, छोटे बैंडवाइथ अक्सर केवल ऐसे अजीब मोड्स को इंगित करते हैं जो अप्राप्य और / या तुच्छ होते हैं। व्यापार बंद वास्तव में नाजुक है। मुझे लगता है कि इस दृष्टिकोण का मुख्य गुण "है कि क्या हम दुस्साहस करते हैं?" मैं अक्सर प्रतिबिंब के बिना डिफ़ॉल्ट परिणामों की प्रतिलिपि बनाने के लिए सॉफ़्टवेयर उपयोगकर्ताओं की इच्छा पर चिंतित हूं।
निक कॉक्स

2
इस समस्या को व्यवस्थित रूप से बैंडविड्थ को संशोधित करने और बैंडविड्थ भिन्नता के रूप में मोड की उपस्थिति और गायब होने का पता लगाने के आधार पर व्यवस्थित दृष्टिकोण हैं। संक्षेप में, एक विश्वसनीय मोड बना रहता है और एक कम-से-विश्वसनीय मोड नहीं होता है। यह एक सुंदर दृष्टिकोण है, लेकिन कभी-कभी एक सुरंग निर्माता द्वारा गोलीबारी की जाएगी जब एक कुदाल करेगा। उदाहरण के लिए, यदि आप हिस्टोग्राम पसंद को दोहराते हैं और द्वितीयक मोड गायब हो जाता है (या चलता है) सभी बहुत आसानी से, विश्वास नहीं करते।
निक कॉक्स

2

एलपी Nonparametric मोड पहचान

एलपी Nonparametric मोड पहचान (एल्गोरिथ्म LPMode का नाम , पेपर का रेफरी नीचे दिया गया है)

MAXENT मोड्स [प्लॉट में लाल रंग के त्रिकोण]: 12783.36 और 24654.28।

एल 2 मोड्स [प्लॉट में हरा रंग त्रिकोण]: 13054.70 और 24111.61।

मोडल आकृतियों पर ध्यान देना दिलचस्प है, विशेष रूप से दूसरा जो काफी तिरछापन दिखाता है (पारंपरिक गॉसियन मिक्चर मॉडल यहां असफल होने की संभावना है)।

मुखोपाध्याय, एस। (2016) लार्ज-स्केल मोड आइडेंटिफिकेशन एंड डेटा-ड्रिवेन साइंसेज। https://arxiv.org/abs/1509.06428


1
क्या आप इन विधियों को पेश करने और समझाने के लिए कुछ संदर्भ प्रदान कर सकते हैं? पेपर के लिए लिंक होना अच्छा है, लेकिन हम अपने जवाबों को यहां आत्म-निहित होना पसंद करते हैं, खासकर अगर लिंक मृत हो जाता है।
गुंग - को पुनः स्थापित मोनिका

संदर्भ मूल प्रश्न है: क्या बहुविधता है? यदि ऐसा है तो। और एक नई विधि की प्रासंगिकता इस तथ्य से आती है कि एक गैर-समरूप तरीके से शिकार करना कठिन मॉडलिंग समस्या है।
दीप मुखर्जी

@gung आपसे अपना उत्तर विस्तृत करने के लिए कह रहा है। उदाहरण के लिए, परिणाम एक पेपर में बताई गई विधि से है जिसका कोई सार्वजनिक संस्करण नहीं है।
निक कॉक्स

2
नहीं, मेरा मतलब है कि "एलपी नॉनपरमेट्रिक मोड आइडेंटिफिकेशन" क्या है? "MaxEnt" क्या है? आदि वाक्यों के एक जोड़े में, यह कैसे काम करता है? क्यों / जब यह अन्य तरीकों के लिए बेहतर हो सकता है? आदि। मुझे पता है कि आप उन्हें समझाने वाले कागज से लिंक करते हैं, लेकिन उन्हें यहां पेश करने के लिए एक दो वाक्य रखना अच्छा होगा, खासकर अगर लिंक मृत हो जाता है, लेकिन भले ही भविष्य के पाठकों को यह समझ में न आए कि क्या इस विधि को आगे बढ़ाना चाहते हैं।
गुंग - को पुनः स्थापित मोनिका

2
@ दीपमुखर्जी, आपको निश्चित रूप से अपनी पोस्ट में पूरे पेपर को फिर से लिखने की आवश्यकता नहीं है। बस यह कहते हुए कुछ वाक्य जोड़ें कि यह क्या है और कैसे काम करता है।
गुंग - को पुनः स्थापित मोनिका
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.