सांख्यिकीय लर्निंग के तत्वों , Hastie एट अल। से, समर्थन वेक्टर classifiers और SVMs पर एक पूरा अध्याय है (आपके मामले में, 2 संस्करण पर पेज 418 शुरू)। डेविड मेयर द्वारा आर में एक और अच्छा ट्यूटोरियल सपोर्ट वेक्टर मशीनें हैं ।
जब तक मैं आपके प्रश्न को गलत समझ लेता हूं, निर्णय सीमा (या हाइपरप्लेन) को (with , और इंटरसेप्ट टर्म) द्वारा परिभाषित किया जाता है, या @ebony ने कहा। समर्थन वैक्टर का एक रैखिक संयोजन। मार्जिन तो, हस्ती एट अल। अंकन।‖ β ‖ = 1 β 0 2 / ‖ β ‖xTβ+β0=0∥β∥=1β02/∥β∥
Kernlab R पैकेज ksvm()
में ऑन-लाइन मदद से , लेकिन kernlab भी देखें - R में कर्नेल मेथड्स के लिए S4 पैकेज , यहाँ एक खिलौना उदाहरण दिया गया है:
set.seed(101)
x <- rbind(matrix(rnorm(120),,2),matrix(rnorm(120,mean=3),,2))
y <- matrix(c(rep(1,60),rep(-1,60)))
svp <- ksvm(x,y,type="C-svc")
plot(svp,data=x)
ध्यान दें कि स्पष्टता के लिए, हम ट्रेन और नमूनों के परीक्षण पर विचार नहीं करते हैं। परिणाम नीचे दिखाए गए हैं, जहां रंग छायांकन फिटेड निर्णय मानों को देखने में मदद करता है; मान 0 के आसपास निर्णय सीमा पर हैं।
कॉलिंग attributes(svp)
आपको वे विशेषताएँ देता है, जिन्हें आप एक्सेस कर सकते हैं, जैसे
alpha(svp) # support vectors whose indices may be
# found with alphaindex(svp)
b(svp) # (negative) intercept
इसलिए, निर्णय सीमा को प्रदर्शित करने के लिए, इसके संगत मार्जिन के साथ, आइए निम्नलिखित (पुन: रिक्त स्थान में) का प्रयास करें, जो काफी हद तक जीन-फिलिप वर्ट द्वारा किए गए एसवीएम पर एक ट्यूटोरियल से प्रेरित है :
plot(scale(x), col=y+2, pch=y+2, xlab="", ylab="")
w <- colSums(coef(svp)[[1]] * x[unlist(alphaindex(svp)),])
b <- b(svp)
abline(b/w[1],-w[2]/w[1])
abline((b+1)/w[1],-w[2]/w[1],lty=2)
abline((b-1)/w[1],-w[2]/w[1],lty=2)
और यहाँ यह है: