माध्य चुकता त्रुटि (या L2 मानदंड, यहां देखें या यहां देखें ) को कम करता है, इसलिए माध्य से दूरी को मापने के लिए विचरण के लिए प्राकृतिक विकल्प चुकता त्रुटि का उपयोग करना है ( यहां देखें कि हम इसे वर्ग क्यों बनाते हैं )। दूसरी ओर, माध्य पूर्ण त्रुटि (L1 मानदंड) को कम कर देता है, अर्थात यह एक मान है जो आपके डेटा के "मध्य" में है, इसलिए माध्यिका से पूर्ण दूरी (तथाकथित मेडियन निरपेक्ष विचलन या एमएडी) के रूप में प्रतीत होती है। माध्यिका के चारों ओर परिवर्तनशीलता की डिग्री का बेहतर माप। आप इस धागे में इस संबंध के बारे में अधिक पढ़ सकते हैं ।
इसे छोटा कहने पर, प्रसरण MAD से भिन्न होता है कि वे आपके डेटा के केंद्रीय बिंदु को कैसे परिभाषित करते हैं और यह उस तरीके को प्रभावित करता है कि कैसे हम इसके आसपास के डेटा पॉइंट्स की भिन्नता को मापते हैं। मान बढ़ने से केंद्रीय बिंदु (माध्य) पर आउटलेयर का अधिक प्रभाव पड़ता है, जबकि मध्यिका के मामले में, सभी बिंदुओं पर समान प्रभाव पड़ता है, इसलिए पूर्ण दूरी अधिक उपयुक्त लगती है।
यह सरल सिमुलेशन द्वारा भी दिखाया जा सकता है। यदि आप माध्य और माध्यिका से वर्गों की दूरी की तुलना करते हैं, तो कुल चुकता दूरी माध्य की तुलना में लगभग हमेशा छोटी होती है। दूसरी ओर, कुल निरपेक्ष दूरी औसत दर्जे से छोटी है, फिर माध्य से। सिमुलेशन के संचालन के लिए आर कोड नीचे पोस्ट किया गया है।
sqtest <- function(x) sum((x-mean(x))^2) < sum((x-median(x))^2)
abstest <- function(x) sum(abs(x-mean(x))) > sum(abs(x-median(x)))
mean(replicate(1000, sqtest(rnorm(1000))))
mean(replicate(1000, abstest(rnorm(1000))))
mean(replicate(1000, sqtest(rexp(1000))))
mean(replicate(1000, abstest(rexp(1000))))
mean(replicate(1000, sqtest(runif(1000))))
mean(replicate(1000, abstest(runif(1000))))
इस तरह के "विचरण" का अनुमान लगाने के बजाय माध्यिका का उपयोग करने के मामले में, यह उच्च अनुमानों की ओर ले जाएगा, इसका उपयोग करने के बजाय पारंपरिक रूप से किया जाता है।
वैसे, एल 1 और एल 2 मानदंडों के संबंधों को बायेसियन संदर्भ में भी माना जा सकता है, जैसे कि इस धागे में ।