बूटस्ट्रैप के कई "जायके" या रूप हैं (जैसे गैर पैरामीट्रिक, पैरामीट्रिक, अवशिष्ट पुनरुत्पादन और कई और अधिक)। उदाहरण में बूटस्ट्रैप एक कहा जाता है गैर पैरामीट्रिक बूटस्ट्रैप , या मामले resampling (देखें यहाँ , यहाँ , यहाँ और यहाँ प्रतिगमन में अनुप्रयोगों के लिए)। मूल विचार यह है कि आप अपने नमूने को आबादी के रूप में मानते हैं और प्रतिस्थापन के साथ बार-बार नए नमूने खींचते हैं । सभी मूल टिप्पणियों को नए नमूने में शामिल किए जाने की समान संभावना है। फिर आप ब्याज की सांख्यिकी (एस) की गणना और संग्रह करते हैं, यह नव खींचा गया नमूना का उपयोग कर माध्य या प्रतिगमन गुणांक हो सकता है।। यह बार दोहराया जाता है । प्रत्येक पुनरावृत्ति में, आपके मूल नमूने से कुछ अवलोकनों को कई बार खींचा जाता है जबकि कुछ अवलोकनों को खींचा नहीं जा सकता है। N पुनरावृत्तियों के बाद , आपके पास ब्याज के सांख्यिकीय (ओं) का n संग्रहित बूटस्ट्रैप अनुमान है (उदाहरण के लिए यदि n = 1000 और ब्याज का आंकड़ा मतलब है, तो आपके पास मतलब के 1000 बूटस्ट्रैप किए गए अनुमान हैं)। अंत में, औसत आंकड़े, जैसे माध्य, मध्य और n बूटस्ट्रैप-अनुमानों के मानक विचलन की गणना की जाती है।nnnn = 1000n
बूटस्ट्रैपिंग का अक्सर उपयोग किया जाता है:
- विश्वास अंतराल की गणना (और मानक त्रुटियों का अनुमान)
- बिंदु अनुमानों के पूर्वाग्रह का अनुमान
रहे हैं कई तरीके बूटस्ट्रैप नमूनों पर आधारित विश्वास के अंतराल की गणना के लिए ( इस पत्र विवरण और मार्गदर्शन प्रदान करता है)। 95% -कॉन्फिडेंस अंतराल की गणना के लिए एक बहुत ही सरल विधि सिर्फ बूटस्ट्रैप नमूनों के आनुभविक 2.5 और 97.5 वें प्रतिशत की गणना कर रही है (इस अंतराल को बूटस्ट्रैप प्रतिशताइल अंतराल कहा जाता है ; नीचे कोड देखें)। सरल प्रतिशतक अंतराल विधि का उपयोग शायद ही कभी अभ्यास में किया जाता है क्योंकि बेहतर तरीके होते हैं, जैसे कि पूर्वाग्रह-सही और त्वरित बूटस्ट्रैप (बीसीए)। बीसीए अंतराल बूटस्ट्रैप वितरण में पूर्वाग्रह और तिरछापन दोनों के लिए समायोजित करता है।
n
आइए वेबसाइट से उदाहरण को दोहराएं लेकिन अपने स्वयं के लूप का उपयोग करके मैंने ऊपर उल्लिखित विचारों को शामिल किया है (प्रतिस्थापन के साथ बार-बार ड्राइंग):
#-----------------------------------------------------------------------------
# Load packages
#-----------------------------------------------------------------------------
require(ggplot2)
require(pscl)
require(MASS)
require(boot)
#-----------------------------------------------------------------------------
# Load data
#-----------------------------------------------------------------------------
zinb <- read.csv("http://www.ats.ucla.edu/stat/data/fish.csv")
zinb <- within(zinb, {
nofish <- factor(nofish)
livebait <- factor(livebait)
camper <- factor(camper)
})
#-----------------------------------------------------------------------------
# Calculate zero-inflated regression
#-----------------------------------------------------------------------------
m1 <- zeroinfl(count ~ child + camper | persons, data = zinb,
dist = "negbin", EM = TRUE)
#-----------------------------------------------------------------------------
# Store the original regression coefficients
#-----------------------------------------------------------------------------
original.estimates <- as.vector(t(do.call(rbind, coef(summary(m1)))[, 1:2]))
#-----------------------------------------------------------------------------
# Set the number of replications
#-----------------------------------------------------------------------------
n.sim <- 2000
#-----------------------------------------------------------------------------
# Set up a matrix to store the results
#-----------------------------------------------------------------------------
store.matrix <- matrix(NA, nrow=n.sim, ncol=12)
#-----------------------------------------------------------------------------
# The loop
#-----------------------------------------------------------------------------
set.seed(123)
for(i in 1:n.sim) {
#-----------------------------------------------------------------------------
# Draw the observations WITH replacement
#-----------------------------------------------------------------------------
data.new <- zinb[sample(1:dim(zinb)[1], dim(zinb)[1], replace=TRUE),]
#-----------------------------------------------------------------------------
# Calculate the model with this "new" data
#-----------------------------------------------------------------------------
m <- zeroinfl(count ~ child + camper | persons,
data = data.new, dist = "negbin",
start = list(count = c(1.3711, -1.5152, 0.879),
zero = c(1.6028, -1.6663)))
#-----------------------------------------------------------------------------
# Store the results
#-----------------------------------------------------------------------------
store.matrix[i, ] <- as.vector(t(do.call(rbind, coef(summary(m)))[, 1:2]))
}
#-----------------------------------------------------------------------------
# Save the means, medians and SDs of the bootstrapped statistics
#-----------------------------------------------------------------------------
boot.means <- colMeans(store.matrix, na.rm=T)
boot.medians <- apply(store.matrix,2,median, na.rm=T)
boot.sds <- apply(store.matrix,2,sd, na.rm=T)
#-----------------------------------------------------------------------------
# The bootstrap bias is the difference between the mean bootstrap estimates
# and the original estimates
#-----------------------------------------------------------------------------
boot.bias <- colMeans(store.matrix, na.rm=T) - original.estimates
#-----------------------------------------------------------------------------
# Basic bootstrap CIs based on the empirical quantiles
#-----------------------------------------------------------------------------
conf.mat <- matrix(apply(store.matrix, 2 ,quantile, c(0.025, 0.975), na.rm=T),
ncol=2, byrow=TRUE)
colnames(conf.mat) <- c("95%-CI Lower", "95%-CI Upper")
और यहाँ हमारी सारांश तालिका है:
#-----------------------------------------------------------------------------
# Set up summary data frame
#-----------------------------------------------------------------------------
summary.frame <- data.frame(mean=boot.means, median=boot.medians,
sd=boot.sds, bias=boot.bias, "CI_lower"=conf.mat[,1], "CI_upper"=conf.mat[,2])
summary.frame
mean median sd bias CI_lower CI_upper
1 1.2998 1.3013 0.39674 -0.0712912 0.51960 2.0605
2 0.2527 0.2486 0.03208 -0.0034461 0.19898 0.3229
3 -1.5662 -1.5572 0.26220 -0.0509239 -2.12900 -1.0920
4 0.2005 0.1986 0.01949 0.0049019 0.16744 0.2418
5 0.9544 0.9252 0.48915 0.0753405 0.03493 1.9025
6 0.2702 0.2688 0.02043 0.0009583 0.23272 0.3137
7 -0.8997 -0.9082 0.22174 0.0856793 -1.30664 -0.4380
8 0.1789 0.1781 0.01667 0.0029513 0.14494 0.2140
9 2.0683 1.7719 1.59102 0.4654898 0.44150 8.0471
10 4.0209 0.8270 13.23434 3.1845710 0.58114 57.6417
11 -2.0969 -1.6717 1.56311 -0.4306844 -8.43440 -1.1156
12 3.8660 0.6435 13.27525 3.1870642 0.33631 57.6062
कुछ स्पष्टीकरण
- बूटस्ट्रैप अनुमानों और मूल अनुमानों के बीच के अंतर को आउटपुट में "पूर्वाग्रह" कहा जाता है
boot
boot
"स्टैड त्रुटि" कॉल का आउटपुट क्या बूटस्ट्रैप किए गए अनुमानों का मानक विचलन है
इसकी तुलना आउटपुट से करें boot
:
#-----------------------------------------------------------------------------
# Compare with boot output and confidence intervals
#-----------------------------------------------------------------------------
set.seed(10)
res <- boot(zinb, f, R = 2000, parallel = "snow", ncpus = 4)
res
Bootstrap Statistics :
original bias std. error
t1* 1.3710504 -0.076735010 0.39842905
t2* 0.2561136 -0.003127401 0.03172301
t3* -1.5152609 -0.064110745 0.26554358
t4* 0.1955916 0.005819378 0.01933571
t5* 0.8790522 0.083866901 0.49476780
t6* 0.2692734 0.001475496 0.01957823
t7* -0.9853566 0.083186595 0.22384444
t8* 0.1759504 0.002507872 0.01648298
t9* 1.6031354 0.482973831 1.58603356
t10* 0.8365225 3.240981223 13.86307093
t11* -1.6665917 -0.453059768 1.55143344
t12* 0.6793077 3.247826469 13.90167954
perc.cis <- matrix(NA, nrow=dim(res$t)[2], ncol=2)
for( i in 1:dim(res$t)[2] ) {
perc.cis[i,] <- boot.ci(res, conf=0.95, type="perc", index=i)$percent[4:5]
}
colnames(perc.cis) <- c("95%-CI Lower", "95%-CI Upper")
perc.cis
95%-CI Lower 95%-CI Upper
[1,] 0.52240 2.1035
[2,] 0.19984 0.3220
[3,] -2.12820 -1.1012
[4,] 0.16754 0.2430
[5,] 0.04817 1.9084
[6,] 0.23401 0.3124
[7,] -1.29964 -0.4314
[8,] 0.14517 0.2149
[9,] 0.29993 8.0463
[10,] 0.57248 56.6710
[11,] -8.64798 -1.1088
[12,] 0.33048 56.6702
#-----------------------------------------------------------------------------
# Our summary table
#-----------------------------------------------------------------------------
summary.frame
mean median sd bias CI_lower CI_upper
1 1.2998 1.3013 0.39674 -0.0712912 0.51960 2.0605
2 0.2527 0.2486 0.03208 -0.0034461 0.19898 0.3229
3 -1.5662 -1.5572 0.26220 -0.0509239 -2.12900 -1.0920
4 0.2005 0.1986 0.01949 0.0049019 0.16744 0.2418
5 0.9544 0.9252 0.48915 0.0753405 0.03493 1.9025
6 0.2702 0.2688 0.02043 0.0009583 0.23272 0.3137
7 -0.8997 -0.9082 0.22174 0.0856793 -1.30664 -0.4380
8 0.1789 0.1781 0.01667 0.0029513 0.14494 0.2140
9 2.0683 1.7719 1.59102 0.4654898 0.44150 8.0471
10 4.0209 0.8270 13.23434 3.1845710 0.58114 57.6417
11 -2.0969 -1.6717 1.56311 -0.4306844 -8.43440 -1.1156
12 3.8660 0.6435 13.27525 3.1870642 0.33631 57.6062
"सारांश" कॉलम और हमारे अपने सारांश तालिका के "एसडी" कॉलम के साथ "एसटीडी त्रुटि" की तुलना करें। हमारे 95%-कॉन्फिडेंस अंतराल boot.ci
, पर्सेंटाइल विधि (हालांकि सभी नहीं: इंडेक्स 9 के साथ पैरामीटर की निचली सीमा को देखते हैं) का उपयोग करके गणना किए गए आत्मविश्वास अंतराल के समान हैं ।