कूपन कलेक्टर की समस्या में अनुमान लगाना n


14

पर एक बदलाव में कूपन कलेक्टर की समस्या , आप कूपन की संख्या नहीं जानते हैं और इसे डेटा के आधार पर निर्धारित करना चाहिए। मैं इसे भाग्य कुकी समस्या के रूप में संदर्भित करूंगा:

अलग-अलग भाग्य कुकी संदेशों की एक अज्ञात संख्या को देखते हुए n , अनुमानn कुकीज़ एक समय में एक और गिनती कितनी बार प्रत्येक भाग्य प्रकट होता है नमूने के द्वारा। इस अनुमान पर वांछित आत्मविश्वास अंतराल प्राप्त करने के लिए आवश्यक नमूनों की संख्या भी निर्धारित करें।

मूल रूप से मैं एक एल्गोरिथ्म की जरूरत है कि नमूने सिर्फ पर्याप्त डेटा किसी निश्चित विश्वास अंतराल तक पहुँचने के लिए, कहते हैं n±5 के साथ 95% आत्मविश्वास। सादगी के लिए, हम मान सकते हैं कि सभी भाग्य समान संभावना / आवृत्ति के साथ दिखाई देते हैं, लेकिन यह अधिक सामान्य समस्या के लिए सही नहीं है, और इसका एक समाधान भी स्वागत योग्य है।

यह जर्मन टैंक समस्या के समान लगता है , लेकिन इस उदाहरण में, भाग्य कुकीज़ को क्रमिक रूप से लेबल नहीं किया गया है, और इस प्रकार कोई आदेश नहीं है।


1
क्या हम जानते हैं कि संदेश समान रूप से लगातार आते हैं?
Glen_b -Reinstate मोनिका

संपादित प्रश्न: हाँ
goweon

2
क्या आप संभावना फ़ंक्शन लिख सकते हैं?
झेन

2
वन्यजीव अध्ययन करने वाले लोग जानवरों को पकड़ते हैं, टैग करते हैं और छोड़ते हैं। बाद में वे आवृत्ति के आधार पर आबादी के आकार का अनुमान लगाते हैं जिसके साथ वे पहले से ही टैग किए गए जानवरों को हटा देते हैं। ऐसा लगता है कि आपकी समस्या गणितीय रूप से उनके समकक्ष है।
एमिल फ्राइडमैन

जवाबों:


6

समान संभावना / आवृत्ति मामले के लिए, यह दृष्टिकोण आपके लिए काम कर सकता है।

बता दें कि कुल नमूना आकार है, N विभिन्न वस्तुओं की संख्या में देखा जाता है, N 1 एक बार देखे जाने वाले आइटमों की संख्या हो , N 2 ठीक दो बार देखी गई वस्तुओं की संख्या हो, A = N 1 ( 1 - N 1)KNN1N2और क्यू =एन1A=N1(1N1K)+2N2,Q^=N1K.

फिर कुल जनसंख्या आकार पर लगभग 95% विश्वास अंतराल दिया जाता हैn

n^Lower=11Q^+1.96AK

n^Upper=11Q^1.96AK

लागू करते समय, आपको अपने डेटा के आधार पर इन्हें समायोजित करने की आवश्यकता हो सकती है।

विधि गुड और ट्यूरिंग के कारण है। विश्वास अंतराल के साथ एक संदर्भ है एस्टी, वारेन डब्ल्यू (1983), "ए नॉर्मपेरिट लिमिट लॉ फॉर ए नॉनपरमेट्रिक एस्टीमेटर ऑफ द कवरेज ऑफ़ द रैंडम सैंपल" , एन। सांख्यिकीविद। , खंड 11, संख्या 3, 905-912।

अधिक सामान्य समस्या के लिए, बंज ने मुफ्त सॉफ्टवेयर का उत्पादन किया है जो कई अनुमानों का उत्पादन करता है। उसके नाम और कैचअल्लाह शब्द के साथ खोजें ।


1
मैंने एस्टी संदर्भ को जोड़ने की स्वतंत्रता ली। कृपया डबल चेक करें कि यह
वही है

यदि आप केवल (नमूना आकार), और N ( अनूठे आइटमों की संख्या ) जानते हैं, तो क्या यह संभव है कि @soakley सीमा (शायद कम सटीक सीमा) प्राप्त कर सके ? यानी हमारे पास N 1 और N 2 के बारे में जानकारी नहीं है । KNN1N2
बसज

मैं सिर्फ और N के साथ ऐसा करने का तरीका नहीं जानता KN.
soakley

2

मैं अगर यह मदद कर सकते हैं पता नहीं है, लेकिन यह लेने की समस्या है के दौरान विभिन्न गेंदों n के साथ एक कलश में परीक्षणों मीटर गेंदों प्रतिस्थापन के साथ अलग ढंग से लेबल। इस पृष्ठ के अनुसार (फ्रेंच में) यदि X n यदि यादृच्छिक चर विभिन्न गेंदों की संख्या को गिनता है तो प्रायिकता फ़ंक्शन द्वारा दी गई है: P ( X n = k ) = ( mknmXnP(Xn=k)=(mk)i=0k(1)ki(ki)(im)n

तब आप अधिकतम संभावना अनुमानक का उपयोग कर सकते हैं।

ऑक्यूपेंसी समस्या को हल करने के लिए प्रमाण के साथ एक और सूत्र यहां दिया गया है


2

संभावना समारोह और संभावना

जन्मदिन की समस्या के बारे में एक प्रश्न के उत्तर में कोडी माउघन द्वारा संभावना समारोह के लिए एक समाधान दिया गया है।

भाग्य कुकी प्रकारों की संख्या के लिए संभाव्य कार्य m जब हम n ड्रा में विभिन्न भाग्य कुकीज़ k आकर्षित करते हैं (जहाँ प्रत्येक भाग्य प्रकार एक ड्रा में प्रदर्शित होने की समान संभावना है) को निम्न के रूप में व्यक्त किया जा सकता है:n

L(m|k,n)=mnm!(mk)!P(k|m,n)=mnm!(mk)!S(n,k)Stirling number of the 2nd kind=mnm!(mk)!1k!i=0k(1)i(ki)(ki)n=(mk)i=0k(1)i(ki)(kim)n

For a derivation of the probability on the right hand side see the the occupancy problem. This has been described before on this website by Ben. The expression is similar to the one in the answer by Sylvain.

Maximum likelihood estimate

We can compute first order and second order approximations of the maximum of the likelihood function at

m1(n2)nk

m2(n2)+(n2)24(nk)(n3)2(nk)

Likelihood interval

(note, this is not the same as a confidence interval see: The basic logic of constructing a confidence interval)

This remains an open problem for me. I am not sure yet how to deal with the expression mnm!(mk)! (of course one can compute all values and select the boundaries based on that, but it would be more nice to have some explicit exact formula or estimate). I can not seem to relate it to any other distribution which would greatly help to evaluate it. But I feel like a nice (simple) expression could be possible from this likelihood interval approach.

Confidence interval

For the confidence interval we can use a normal approximation. In Ben's answer the following mean and variance are given:

E[K]=m(1(11m)n)
V[K]=m((m1)(12m)n+(11m)nm(11m)2n)

Say for a given sample n=200 and observed unique cookies k the 95% boundaries E[K]±1.96V[K] look like:

confidence interval boundaries

In the image above the curves for the interval have been drawn by expressing the lines as a function of the population size m and sample size n (so the x-axis is the dependent variable in drawing these curves).

The difficulty is to inverse this and obtain the interval values for a given observed value k. It can be done computationally, but possibly there might be some more direct function.

In the image I have also added Clopper Pearson confidence intervals based on a direct computation of the cumulative distribution based on all the probabilities P(k|m,n) (I did this in R where I needed to use the Strlng2 function from the CryptRndTest package which is an asymptotic approximation of the logarithm of the Stirling number of the second kind). You can see that the boundaries coincide reasonably well, so the normal approximation is performing well in this case.

# function to compute Probability
library("CryptRndTest")
P5 <- function(m,n,k) {
  exp(-n*log(m)+lfactorial(m)-lfactorial(m-k)+Strlng2(n,k))
}
P5 <- Vectorize(P5)

# function for expected value 
m4 <- function(m,n) {
  m*(1-(1-1/m)^n)
}

# function for variance
v4 <- function(m,n) {
  m*((m-1)*(1-2/m)^n+(1-1/m)^n-m*(1-1/m)^(2*n))
}


# compute 95% boundaries based on Pearson Clopper intervals
# first a distribution is computed
# then the 2.5% and 97.5% boundaries of the cumulative values are located
simDist <- function(m,n,p=0.05) {
  k <- 1:min(n,m)
  dist <- P5(m,n,k)
  dist[is.na(dist)] <- 0
  dist[dist == Inf] <- 0
  c(max(which(cumsum(dist)<p/2))+1,
       min(which(cumsum(dist)>1-p/2))-1)
}


# some values for the example
n <- 200
m <- 1:5000
k <- 1:n

# compute the Pearon Clopper intervals
res <- sapply(m, FUN = function(x) {simDist(x,n)})


# plot the maximum likelihood estimate
plot(m4(m,n),m,
     log="", ylab="estimated population size m", xlab = "observed uniques k",
     xlim =c(1,200),ylim =c(1,5000),
     pch=21,col=1,bg=1,cex=0.7, type = "l", yaxt = "n")
axis(2, at = c(0,2500,5000))

# add lines for confidence intervals based on normal approximation
lines(m4(m,n)+1.96*sqrt(v4(m,n)),m, lty=2)
lines(m4(m,n)-1.96*sqrt(v4(m,n)),m, lty=2)
# add lines for conficence intervals based on Clopper Pearson
lines(res[1,],m,col=3,lty=2)
lines(res[2,],m,col=3,lty=2)

# add legend
legend(0,5100,
       c("MLE","95% interval\n(Normal Approximation)\n","95% interval\n(Clopper-Pearson)\n")
       , lty=c(1,2,2), col=c(1,1,3),cex=0.7,
       box.col = rgb(0,0,0,0))

For the case of unequal probabilities. You can approximate the number of cookies of a particular type as independent Binomial/Poisson distributed variables and describe whether they are filled or not as Bernouilli variables. Then add together the variance and means for those variables. I guess that this is also how Ben derived/approximated the expectation value and variance. ----- A problem is how you describe these different probabilities. You can not do this explicitly since you do not know the number of cookies.
Sextus Empiricus
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.