आप बेस्सियन एनोवा और आर में प्रतिगमन कैसे करेंगे? [बन्द है]


14

मेरे पास एक स्वतंत्र चर, एक आश्रित चर और एक श्रेणीगत चर से युक्त एक काफी सरल डेटासेट है। मेरे पास बार-बार होने वाले परीक्षण जैसे अनुभव का बहुत अनुभव है aov()और lm(), लेकिन मैं यह नहीं समझ सकता कि आर में उनके बायसियन समकक्षों का प्रदर्शन कैसे किया जाए।

मैं पहले दो वेरिएबल्स पर एक बायेसियन रैखिक प्रतिगमन चलाना चाहता हूं और समूहों के रूप में श्रेणीबद्ध चर का उपयोग करके विचरण का एक बायेसियन विश्लेषण करता हूं, लेकिन मुझे आर के साथ ऐसा करने के लिए कोई सरल उदाहरण नहीं मिल सकता है। क्या कोई किसी के लिए एक मूल उदाहरण प्रदान कर सकता है। दोनों? इसके अतिरिक्त, वास्तव में बायेसियन विश्लेषण द्वारा निर्मित आउटपुट आँकड़े क्या हैं और वे क्या व्यक्त करते हैं?

मैं आँकड़ों में बहुत अच्छी तरह से वाकिफ नहीं हूँ, लेकिन सर्वसम्मति से लगता है कि पी-वैल्यू के साथ बुनियादी परीक्षणों का उपयोग करना अब कुछ हद तक गलत माना जाता है, और मैं इसे बनाए रखने की कोशिश कर रहा हूं। सादर।


2
बायेसियन डेटा विश्लेषण करना: आर और बीयूजीएस के साथ एक ट्यूटोरियल एक अच्छी शुरुआत हो सकती है। इस संबंधित प्रश्न पर बायेसियन एनोवा के लिए कुछ लिंक भी हैं: बायेसियन टू-फैक्टर एनोवा । हालांकि, आपके अंतिम वाक्य से मैं स्पष्ट नहीं हूं, क्योंकि पी-मूल्य की व्याख्या करने के बजाय हम आमतौर पर प्रभाव के आकार का उपयोग करने की सलाह देते हैं ।
CHL

जवाबों:


12

यदि आप बहुत से बायेसियन आँकड़े करने का इरादा रखते हैं, तो आपको BUGS / JAGS भाषा सीखने में मदद मिलेगी, जिसे R2OpenBUGS या R2WinBUGS पैकेज के माध्यम से R में एक्सेस किया जा सकता है।

हालांकि, एक त्वरित उदाहरण के लिए जिसे BUGS सिंटैक्स को समझने की आवश्यकता नहीं है, आप "बेज़्म" पैकेज का उपयोग कर सकते हैं, जिसमें पश्च वितरण से नमूना लेने के लिए रनग्रेगबब्स फ़ंक्शन है। यहाँ डेटा के साथ एक उदाहरण है जो आप वर्णन करते हैं .....

library(bayesm)

podwt <- structure(list(wt = c(1.76, 1.45, 1.03, 1.53, 2.34, 1.96, 1.79, 1.21, 0.49, 0.85, 1, 1.54, 1.01, 0.75, 2.11, 0.92), treat = structure(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L), .Label = c("I", "U"), class = "factor"), mus = c(4.15, 2.76, 1.77, 3.11, 4.65, 3.46, 3.75, 2.04, 1.25, 2.39, 2.54, 3.41, 1.27, 1.26, 3.87, 1.01)), .Names = c("wt", "treat", "mus"), row.names = c(NA, -16L), class = "data.frame")

# response
y1 <- podwt$wt

# First run a one-way anova

# Create the design matrix - need to insert a column of 1s
x1 <- cbind(matrix(1,nrow(podwt),1),podwt$treat)

# data for the Bayesian analysis
dt1 <- list(y=y1,X=x1)

# runiregGibbs uses a normal prior for the regression coefficients and 
# an inverse chi-squared prior for va

# mean of the normal prior. We have 2 estimates - 1 intercept 
# and 1 regression coefficient
betabar1 <- c(0,0)

# Pecision matrix for the normal prior. Again we have 2
A1 <- 0.01 * diag(2)
# note this is a very diffuse prior

# degrees of freedom for the inverse chi-square prior
n1 <- 3  

# scale parameter for the inverse chi-square prior
ssq1 <- var(y1) 

Prior1 <- list(betabar=betabar1, A=A1, nu=n1, ssq=ssq1)

# number of iterations of the Gibbs sampler
iter <- 10000  

# thinning/slicing parameter. 1 means we keep all all values
slice <- 1 

MCMC <- list(R=iter, keep=slice)

sim1 <- runiregGibbs(dt1, Prior1, MCMC)

plot(sim1$betadraw)
    plot(sim1$sigmasqdraw)

summary(sim1$betadraw)
    summary(sim1$sigmasqdraw)

# compare with maximum likelihood estimates:
fitpodwt <- lm(wt~treat, data=podwt)
summary(fitpodwt)
anova(fitpodwt)


# now for ordinary linear regression

x2 <- cbind(matrix(1,nrow(podwt),1),podwt$mus)

dt2 <- list(y=y1,X=x2)

sim2 <- runiregGibbs(dt1, Prior1, MCMC)

summary(sim1$betadraw)
    summary(sim1$sigmasqdraw)
plot(sim$betadraw)
    plot(sim$sigmasqdraw)

# compare with maximum likelihood estimates:
summary(lm(podwt$wt~mus,data=podwt))


# now with both variables

x3 <- cbind(matrix(1,nrow(podwt),1),podwt$treat,podwt$mus)

dt3 <- list(y=y1,X=x3)

# now we have an additional estimate so modify the prior accordingly

betabar1 <- c(0,0,0)
A1 <- 0.01 * diag(3)
Prior1 <- list(betabar=betabar1, A=A1, nu=n1, ssq=ssq1)

sim3 <- runiregGibbs(dt3, Prior1, MCMC)

plot(sim3$betadraw)
    plot(sim3$sigmasqdraw)
summary(sim3$betadraw)
    summary(sim3$sigmasqdraw)

# compare with maximum likelihood estimates:
summary(lm(podwt$wt~treat+mus,data=podwt))

आउटपुट से अर्क हैं: एनोवा: बायेसियन:

Summary of Posterior Marginal Distributions 
Moments 
   mean std dev num se rel eff sam size
1  2.18    0.40 0.0042    0.99     9000
2 -0.55    0.25 0.0025    0.87     9000

Quantiles 
  2.5%    5%   50%   95%  97.5%
1  1.4  1.51  2.18  2.83  2.976
2 -1.1 -0.97 -0.55 -0.13 -0.041

एल एम ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   1.6338     0.1651   9.895 1.06e-07 ***
treatU       -0.5500     0.2335  -2.355   0.0336 *  

सरल रैखिक प्रतिगमन: बायेसियन:

Summary of Posterior Marginal Distributions 
Moments 
  mean std dev  num se rel eff sam size
1 0.23   0.208 0.00222     1.0     4500
2 0.42   0.072 0.00082     1.2     4500

Quantiles
   2.5%    5%  50%  95% 97.5%
1 -0.18 -0.10 0.23 0.56  0.63
2  0.28  0.31 0.42 0.54  0.56

एल एम ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.23330    0.14272   1.635    0.124    
mus          0.42181    0.04931   8.554 6.23e-07 ***

2 कोवरिएट मॉडल: बायेसियन:

Summary of Posterior Marginal Distributions 
Moments 
   mean std dev  num se rel eff sam size
1  0.48   0.437 0.00520     1.3     4500
2 -0.12   0.184 0.00221     1.3     4500
3  0.40   0.083 0.00094     1.2     4500

Quantiles 
   2.5%    5%   50%  95% 97.5%
1 -0.41 -0.24  0.48 1.18  1.35
2 -0.48 -0.42 -0.12 0.18  0.25
3  0.23  0.26  0.40 0.53  0.56

एल एम ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.36242    0.19794   1.831   0.0901 .  
treatU      -0.11995    0.12688  -0.945   0.3617    
mus          0.39590    0.05658   6.997 9.39e-06 ***

जिससे हम देख सकते हैं कि परिणाम सरल रूप से तुलनात्मक हैं, जैसा कि इन सरल मॉडल और फैलाने वाले पुजारियों से अपेक्षित है। बेशक यह MCMC डायग्नोस्टिक प्लॉट्स का निरीक्षण करने के लायक भी है - बाद में घनत्व, ट्रेस प्लॉट, ऑटो सहसंबंध - कि मैंने ऊपर के लिए कोड भी दिया था (जो प्लॉट नहीं दिखाए गए)।


इसलिए मैंने दो स्वतंत्र चर के खिलाफ रैखिक प्रतिगमन को अलग-अलग चलाया- जिनमें से दोनों लगातार लाम () परीक्षण का उपयोग करते हुए काफी अच्छी तरह से (~ 0.01) पी-मान के साथ प्रदर्शन करते हैं। बायेसियन टेस्ट के साथ, इनमें से एक वैरिएबल इंटरसेप्ट और ढलान के लिए बहुत समान और महत्वपूर्ण परिणाम पैदा करता है, लेकिन दूसरे के लिए, जिसका वास्तव में थोड़ा कम पी-मूल्य है, बायेसियन परिणाम बेतहाशा अलग (और सांख्यिकीय रूप से महत्वहीन) मान देता है। किसी भी विचार यह क्या मतलब हो सकता है?
बार्जोव

@Barzov आपको एक नया प्रश्न पोस्ट करना चाहिए, और अपना कोड और (यदि संभव हो तो) अपना डेटा शामिल करें।
पी सेलाज़

2

BayesFactor पैकेज (यहां प्रदर्शित किया गया: http://bayesfactorpcl.r-forge.r-project.org/ और CRAN पर उपलब्ध) बायेसियन एनोवा और प्रतिगमन की अनुमति देता है। यह मॉडल तुलना के लिए बेयस कारकों का उपयोग करता है और अनुमान के लिए पीछे के नमूने की अनुमति देता है।


1

यह LearnBayesपैकेज के साथ काफी सुविधाजनक है ।

fit <- lm(Sepal.Length ~ Species, data=iris, x=TRUE, y=TRUE)
library(LearnBayes)
posterior_sims <- blinreg(fit$y, fit$x, 50000)

blinregसमारोह डिफ़ॉल्ट रूप से एक noninformative पहले का उपयोग करता है, और यह एक अनुमान पैदावार बहुत frequentist एक के करीब।

अनुमान :

> # frequentist 
> fit$coefficients
      (Intercept) Speciesversicolor  Speciesvirginica 
            5.006             0.930             1.582 
> # Bayesian
> colMeans(posterior_sims$beta)
      X(Intercept) XSpeciesversicolor  XSpeciesvirginica 
         5.0066682          0.9291718          1.5807763 

आत्मविश्वास अंतराल :

> # frequentist
> confint(fit)
                      2.5 %   97.5 %
(Intercept)       4.8621258 5.149874
Speciesversicolor 0.7265312 1.133469
Speciesvirginica  1.3785312 1.785469
> # Bayesian
> apply(posterior_sims$beta, 2, function(x) quantile(x, c(0.025, 0.975)))
      X(Intercept) XSpeciesversicolor XSpeciesvirginica
2.5%      4.862444          0.7249691          1.376319
97.5%     5.149735          1.1343101          1.783060
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.