पीसीए करने से पहले क्या किसी को अत्यधिक सहसंबद्ध चर को हटा देना चाहिए?


111

मैं एक पेपर पढ़ रहा हूं जहां पीसीए करने से पहले लेखक अन्य चर के लिए उच्च सहसंबंध के कारण कई चरों को छोड़ देता है। चरों की कुल संख्या लगभग 20 है।

क्या इससे कोई लाभ मिलता है? यह मुझे एक ओवरहेड की तरह दिखता है क्योंकि पीसीए को इसे स्वचालित रूप से संभालना चाहिए।


26
बस एक संकेत है। सोचिए, अगर किसी एक चर में अधिक से अधिक प्रतियाँ (या पास प्रतियाँ) जोड़ने पर पीसीए के परिणाम किस तरह से बदल जाएँगे।
ttnphns

@ type2 क्या आप उस पेपर का नाम बता सकते हैं जिसे आप पढ़ रहे थे?
अमात्य

जवाबों:


123

यह @ttnphns द्वारा एक टिप्पणी में प्रदान किए गए व्यावहारिक संकेत पर फैलता है।

लगभग सहसंबद्ध चर के आसपास होने से पीसीए के लिए उनके सामान्य अंतर्निहित कारक का योगदान बढ़ जाता है। हम इसे ज्यामितीय रूप से देख सकते हैं। XY विमान में इन आंकड़ों पर विचार करें, जिसे एक बिंदु बादल के रूप में दिखाया गया है:

स्कैटर प्लॉट

थोड़ा सहसंबंध है, लगभग बराबर सहसंयोजक, और डेटा केंद्रित हैं: पीसीए (कोई फर्क नहीं पड़ता कि कैसे संचालित) दो लगभग समान घटकों की रिपोर्ट करेगा।

आइए अब हम प्लस के बराबर तीसरे चर एक छोटी मात्रा में रैंडम त्रुटि करते हैं। का सहसंबंध मैट्रिक्स दूसरी और तीसरी पंक्तियों और स्तंभों ( और ) को छोड़कर छोटे ऑफ-विकर्ण गुणांक के साथ दिखाता है :वाई ( एक्स , वाई , जेड ) वाई जेडZY(X,Y,Z)YZ

(1.0.03440180.0460760.03440181.0.9418290.0460760.9418291.)

ज्यामितीय रूप से, हमने सभी मूल बिंदुओं को लगभग लंबवत रूप से विस्थापित कर दिया है, जो पिछले चित्र को पृष्ठ के समतल से बाहर निकाल रहा है। यह छद्म 3 डी बिंदु बादल एक साइड परिप्रेक्ष्य दृश्य (एक अलग डेटासेट पर आधारित, यद्यपि पहले की तरह ही उत्पन्न) के साथ उठाने का वर्णन करने का प्रयास करता है:

3 डी प्लाट

अंक मूल रूप से नीले विमान में स्थित होते हैं और लाल डॉट्स पर उठाए जाते हैं। मूल अक्ष दाईं ओर इंगित करता है। परिणामी झुकाव भी YZ दिशाओं के साथ बिंदुओं को फैलाते हैं, जिससे विचरण में उनके योगदान को दोगुना हो जाता है। नतीजतन, इन नए डेटा का एक पीसीए अभी भी दो प्रमुख प्रमुख घटकों की पहचान करेगा, लेकिन अब उनमें से एक में दूसरे के दो बार विचरण होगा।Y

इस ज्यामितीय अपेक्षा को कुछ सिमुलेशन के साथ वहन किया जाता है R। इसके लिए मैंने दूसरे, दूसरे, तीसरे, चौथे, और पाँचवें समय के दूसरे चर की निकट-कोलीनियर प्रतियां बनाकर "उठाने" की प्रक्रिया को दोहराया, जिसका नामकरण माध्यम से । यहां एक स्कैल्पल मैट्रिक्स दिखाया गया है कि पिछले चार चर कैसे अच्छी तरह से संबंधित हैं:एक्स 5X2X5

स्कैटरप्लॉट मैट्रिक्स

पीसीए को सहसंबंधों का उपयोग करके किया जाता है (हालांकि यह इन आंकड़ों के लिए वास्तव में कोई मायने नहीं रखता है), पहले दो चर, फिर तीन, ... और अंत में पांच का उपयोग करते हुए। मैं कुल भिन्नता के लिए प्रमुख घटकों के योगदान के भूखंडों का उपयोग करके परिणाम दिखाता हूं।

पीसीए परिणाम

प्रारंभ में, दो लगभग असंबद्ध चर के साथ, योगदान लगभग समान (ऊपरी बाएं कोने) हैं। दूसरे के साथ सहसंबद्ध एक चर जोड़ने के बाद - ठीक ज्यामितीय चित्रण के रूप में - अभी भी सिर्फ दो प्रमुख घटक हैं, एक अब दूसरे के आकार से दोगुना है। (एक तीसरा घटक सही सहसंबंध की कमी को दर्शाता है; यह 3 डी में पैनकेक जैसे बादल की "मोटाई" को मापता है।) एक और सहसंबद्ध चर ( ) को जोड़ने के बाद , पहला घटक अब कुल का लगभग तीन-चौथाई है। ; एक पांचवें जोड़े जाने के बाद, पहला घटक कुल का लगभग चार-पांचवां हिस्सा है। दूसरे के बाद सभी चार मामलों में घटकों की संभावना सबसे अधिक पीसीए नैदानिक ​​प्रक्रियाओं द्वारा असंगत मानी जाएगी; पिछले मामले में यह 'X4विचार करने लायक एक प्रमुख घटक।

अब हम देख सकते हैं कि चर के संग्रह के समान अंतर्निहित (लेकिन "अव्यक्त") पहलू को मापने के लिए सोचा गया चर छोड़ने में योग्यता हो सकती है , क्योंकि लगभग-निरर्थक चर सहित पीसीए उनके योगदान को अधिक करने का कारण बन सकता है। ऐसी प्रक्रिया के बारे में गणितीय रूप से सही (या गलत) कुछ भी नहीं है ; यह डेटा के विश्लेषणात्मक उद्देश्यों और ज्ञान के आधार पर एक निर्णय कॉल है। लेकिन यह बहुतायत से स्पष्ट होना चाहिए कि अलग-अलग जाने जाने वाले चर अलग-अलग स्थापित करने से पीसीए परिणामों पर पर्याप्त प्रभाव पड़ सकता है।


यहाँ Rकोड है।

n.cases <- 240               # Number of points.
n.vars <- 4                  # Number of mutually correlated variables.
set.seed(26)                 # Make these results reproducible.
eps <- rnorm(n.vars, 0, 1/4) # Make "1/4" smaller to *increase* the correlations.
x <- matrix(rnorm(n.cases * (n.vars+2)), nrow=n.cases)
beta <- rbind(c(1,rep(0, n.vars)), c(0,rep(1, n.vars)), cbind(rep(0,n.vars), diag(eps)))
y <- x%*%beta                # The variables.
cor(y)                       # Verify their correlations are as intended.
plot(data.frame(y))          # Show the scatterplot matrix.

# Perform PCA on the first 2, 3, 4, ..., n.vars+1 variables.
p <- lapply(2:dim(beta)[2], function(k) prcomp(y[, 1:k], scale=TRUE))

# Print summaries and display plots.
tmp <- lapply(p, summary)
par(mfrow=c(2,2))
tmp <- lapply(p, plot)

5
+1, सुंदर आंकड़े। आपने शीर्ष 2 के लिए क्या उपयोग किया? 1 ऐसा दिखता है जैसे यह हाथ से तैयार किया गया हो।
गंग

14
@gung मैंने पहले आंकड़े के लिए mathematica.stackexchange.com/questions/11350/xkcd-style-graphs पर कोड के एक प्रकार का उपयोग किया । यह लंबे समय से ज्ञात है कि पाठ या एक छवि के लिए थोड़ा यादृच्छिक घबराना जोड़ने से यह गर्म और अधिक सुलभ लग सकता है। ( ही मूल रूप से बनाया गया था Metafont , जो डोनाल्ड नुथ टाइपोग्राफी का गहन अध्ययन के बाद तैयार किया गया है;। वह शामिल ऐसे में निर्मित भिन्नता) दूसरे चित्र में छद्म 3 डी scatterplot की तरह कुछ ग्राफिक्स के लिए, jittering तकनीक कहते हैं कम या ध्यान भंग हो रहा है, इसलिए मैंने वहां इसका इस्तेमाल नहीं किया। TEX
whuber

2
वह बहुत ज्ञानवर्धक है, फुसफुसाता है। मैंने कुछ नया सीखा।
स्पेसी

7
@whuber हिप्पेस्ट स्टेटिस्टिशियन की तरह है - XKCD प्लॉट्स का उपयोग प्रो की तरह।
Cam.Davidson.Pilon

2
@logan दूसरे शब्द में, नहीं। मुझे इस पद पर देर से अपना ध्यान केंद्रित करने की अनुमति दें: "इस तरह की प्रक्रिया के बारे में गणितीय रूप से सही (या गलत) कुछ भी नहीं है; यह डेटा के विश्लेषणात्मक उद्देश्यों और ज्ञान के आधार पर एक निर्णय कॉल है।"
whuber

42

मैं आगे उसी प्रक्रिया और विचार का वर्णन करूंगा जैसा @whuber ने किया था, लेकिन लोडिंग प्लॉट्स के साथ, - क्योंकि लोडिंग पीसीए परिणामों का सार है।

यहाँ तीन 3 विश्लेषण है। पहले में, हमारे पास दो चर हैं, और (इस उदाहरण में, वे सहसंबंधित नहीं हैं)। दूसरे में, हमने जोड़ा जो लगभग की एक प्रति है और इसलिए इसके साथ दृढ़ता से संबंध रखता है। तीसरे में, हमने अभी भी इसी तरह की 2 और "प्रतियां" : और ।एक्स 2 एक्स 3 एक्स 2 एक्स 4 एक्स 5X1X2X3X2X4X5

पहले 2 प्रमुख घटकों के लोडिंग के प्लॉट तब चलते हैं। भूखंडों पर लाल स्पाइक्स चर के बीच सहसंबंधों के बारे में बताते हैं, ताकि कई स्पाइक्स का गुच्छा वह हो जहां कसकर सहसंबद्ध चर का एक समूह पाया जाता है। घटक ग्रे लाइनें हैं; एक घटक के सापेक्ष "ताकत" (इसके सापेक्ष eigenvalue परिमाण) लाइन के वजन द्वारा दिया जाता है।

यहाँ छवि विवरण दर्ज करें

"प्रतियां" जोड़ने के दो प्रभाव देखे जा सकते हैं:

  1. घटक 1 मजबूत और मजबूत हो जाता है, और घटक 2 कमजोर और कमजोर।
  2. घटकों के परिवर्तन की ओर उन्मुखीकरण: पहले, घटक 1 और बीच में चला गया ; जैसा कि हमने को जोड़ा है। घटक 1 तुरंत चर के आकस्मिक गुच्छा का पालन करने के लिए खुद को फिर से उन्मुख करता है; और आप यह सुनिश्चित कर सकते हैं कि बाद में हमने दो और चर को गुच्छा में जोड़ा, घटक 1 के लगाव को बारीकी से सहसंबद्ध चर के गुच्छा से अधिक निर्विवाद हो गया।एक्स 2 एक्स 3 एक्स 2X1X2X3X2

मैं नैतिक को फिर से शुरू नहीं करूंगा क्योंकि @whuber ने पहले ही ऐसा कर लिया था।


जोड़ । नीचे @ व्हिबर की टिप्पणियों के जवाब में कुछ चित्र दिए गए हैं। यह "वैरिएबल स्पेस" और "सब्जेक्ट स्पेस" के बीच अंतर के बारे में है और कैसे घटक खुद को यहां और वहां उन्मुख करते हैं। तीन बीवरिएट पीसीए प्रस्तुत किए गए हैं: पहली पंक्ति विश्लेषण , दूसरी पंक्ति विश्लेषण , और तीसरी पंक्ति । बाएं स्तंभ स्कैप्लेट्स (मानकीकृत डेटा का) है और दायां स्तंभ प्लॉट लोड कर रहा है।r = 0.62 r = 0.77r=0r=0.62r=0.77

एक , और बीच संबंध को क्लाउड की बाध्यता के रूप में प्रस्तुत किया गया है। एक घटक रेखा और एक चर रेखा के बीच का कोण (इसका कोसाइन) संबंधित आइजनवेक्टर तत्व है। Eigenvectors तीनों विश्लेषणों में समान हैं (इसलिए सभी 3 ग्राफ़ पर कोण समान हैं)। [लेकिन, यह सच है, कि साथ , वास्तव में eigenvectors (और इसलिए कोण) सैद्धांतिक रूप से मनमाना हैं; क्योंकि बादल पूरी तरह से "गोल" है, मूल के माध्यम से आने वाली ऑर्थोगोनल लाइनों की कोई भी जोड़ी दो घटकों के रूप में काम कर सकती है, - यहां तक ​​कि औरएक्स 2 आर = 0 एक्स 1 एक्स 2X1X2r=0 X1X2लाइनों के लिए खुद को घटक के रूप में चुना जा सकता है।] एक घटक पर डेटा बिंदुओं (200 विषयों) के निर्देशांक घटक अंक हैं, और 200-1 से विभाजित वर्गों का उनका योग घटक के है eigenvalue

एक लोडिंग प्लॉट पर, अंक (वैक्टर) चर हैं; वे अंतरिक्ष को फैलाते हैं जो 2-आयामी है (क्योंकि हमारे पास 2 अंक + उत्पत्ति है) लेकिन वास्तव में कम 200-आयामी (विषयों की संख्या) "विषय स्थान" है। यहाँ लाल वेक्टरों के बीच का कोण (कोजाइन) । वैक्टर समान, इकाई लंबाई के होते हैं, क्योंकि डेटा को मानकीकृत किया गया था। पहला घटक इस अंतरिक्ष में एक ऐसा आयाम अक्ष है जो बिंदुओं के अति संचय की ओर बढ़ता है; केवल 2 चर के मामले में यह हमेशा और बीच द्विभाजक होता हैएक्स 1 एक्स 2rX1X2(लेकिन एक 3 चर जोड़ने से यह किसी भी तरह से विचलित हो सकता है)। एक वैरिएबल वेक्टर और एक घटक रेखा के बीच का कोण (कोजाइन) उनके बीच सहसंबंध है, और क्योंकि वैक्टर इकाई हैं और घटक ऑर्थोगोनल हैं, यह निर्देशांक, लोडिंग के अलावा और कुछ नहीं है । घटक पर स्क्वैयर लोडिंग का योग इसका आइजनवेल्यू है (यह घटक केवल इस विषय स्थान में ही मरीजों को बताता है ताकि इसे अधिकतम किया जा सके)

यहाँ छवि विवरण दर्ज करें


Addition2। में वृद्धि से ऊपर मैं "चर अंतरिक्ष" और "विषय अंतरिक्ष" के बारे में बात कर रहा था के रूप में यदि वे एक साथ पानी और तेल की तरह असंगत हैं। मुझे इस पर पुनर्विचार करना था और कह सकते हैं कि - कम से कम जब हम पीसीए के बारे में बोलते हैं - दोनों रिक्त स्थान अंत में आइसोमोर्फिक हैं, और उस गुण के द्वारा हम सभी पीसीए विवरणों को सही ढंग से प्रदर्शित कर सकते हैं - डेटा बिंदु, चर अक्ष, घटक तल, चर। अंक, - एक अविभाजित द्विपक्ष पर।

नीचे स्कैप्लॉट (चर स्थान) और लोडिंग प्लॉट (घटक स्थान, जो कि इसके आनुवंशिक मूल द्वारा विषय स्थान है) हैं। वह सब कुछ जो एक पर दिखाया जा सकता था, दूसरे पर भी दिखाया जा सकता था। चित्र समान हैं , केवल 45 डिग्री (और इस विशेष मामले में परिलक्षित) द्वारा एक दूसरे के सापेक्ष घुमाए जाते हैं। यह चर v1 और v2 का पीसीए था (मानकीकृत, इस प्रकार यह आर का विश्लेषण किया गया था)। चित्रों पर काली रेखाएँ अक्षों के रूप में चर हैं; हरे / पीले रंग की रेखाएं कुल्हाड़ियों के रूप में घटक हैं; नीले बिंदु डेटा क्लाउड (विषय) हैं; लाल बिंदु बिंदु (वैक्टर) के रूप में प्रदर्शित चर हैं।

यहाँ छवि विवरण दर्ज करें


1
+1 रोचक चित्रण। BTW, आपका दूसरा अवलोकन डेटा की एक विरूपण साक्ष्य है: अभिविन्यास बदल गया क्योंकि पहले मामले में सहसंबंध एकदम सही था , एक दो आयामी आइगेंसस्पेस दे रहा था । (यह वास्तविक डेटा में अत्यंत दुर्लभ है; इसका आमतौर पर मतलब है कि एक डेटाबेस गलती की गई थी और एक चर दूसरे की एक रैखिक पुनः अभिव्यक्ति है।) सॉफ्टवेयर उस स्थान के लिए, मनमाने ढंग से किसी भी रूढ़िवादी आधार को चुनने के लिए स्वतंत्र था । बस सहसंबंधों की सबसे नगण्य मात्रा ने इस पतन को दूर किया होगा। इसलिए, मुझे लगता है कि आप इस पुनर्संयोजन घटना की व्याख्या करते हैं।
whuber

@ शुभंकर, शायद मैं आपको समझ नहीं पा रहा हूं। क्या "सही" सहसंबंध? r bw X1 और X2 था ।003; और यह कोई भी हो सकता है, उदाहरण के लिए .503। यही कारण है कि हो सकता है क्योंकि भूखंड पर दो लाल वैक्टर BW कोण की। जो कुछ भी आर , 1 पीसी हमेशा द्विभाजक जबकि केवल 2 चर विश्लेषण में हो रहा है। मुझे लगता है कि आपका नोट चर अंतरिक्षThe software was free to choose any orthogonal basis for that space, arbitrarily में गोल बादल पर लागू होता है (यानी आपके उत्तर में 1 चित्र की तरह डेटा स्कैटरप्लॉट), लेकिन लोडिंग प्लॉट विषय स्थान है जहां चर नहीं, मामले (वेक्टर) हैं।
tnnphns

1
माफ़ करना; मेरा मतलब था सहसंबंध की कमी । अपने विश्लेषणों में, क्या आपने सहसंबंध या सहसंबंध का उपयोग किया है या अन्यथा डेटा पंक्तियों या स्तंभों का मानकीकरण किया है? (शायद मुझे गलतफहमी है, लेकिन मुझे इस संदर्भ में "विषय" और "परिवर्तनशील" रिक्त स्थान के बीच का अंतर नहीं मिलता है: मूल आधार वैक्टर और डेटा दोनों के तत्व हैं, कहते हैं, ; " लोडिंग प्लॉट "पहले दो पीसी द्वारा निर्मित सबस्पेस पर एक प्रक्षेपण है। मेरा मानना ​​है कि ज्यादातर लोग" विषय "को मेरे सिमुलेशन में 240 आयामों के लिए ले जाएंगे: मैंने यह नहीं समझा कि R5
स्कैटलपॉट के

मैंने सहसंबंधों का उपयोग किया (मैट्रिक्स और इस तथ्य को ध्यान में रखें कि लाल वैक्टर अनिवार्य रूप से समान लंबाई हैं)। हाँ, विषय अंतरिक्ष है के साथ एक tupsy-torvey scatterplot n कुल्हाड़ियों (विषयों) और पी अंक (चर)। बेशक, सभी एनपी आयाम निरर्थक हैं और पी चर के किसी भी सेट को पी-आयामी विषय स्थान में प्लॉट किया जा सकता है, लेकिन यह इसे चर स्थान में नहीं बदलता है! मैं सिर्फ अपने उत्तर में एक तस्वीर जोड़ूंगा।
tnnphns

5
+1, अतिरिक्त योगदान के लिए धन्यवाद, @ttnphns। यह वही है जो मैंने सोचा था कि एक fabulously जानकारीपूर्ण धागे में एक काफी सरल सवाल था।
गंग

4

आपके कागज के विवरण के बिना, मैं अनुमान लगाता हूं कि अत्यधिक सहसंबद्ध चर के इस त्याग को केवल कम्प्यूटेशनल शक्ति या कार्यभार पर बचाने के लिए किया गया था। मैं एक कारण नहीं देख सकता कि पीसीए अत्यधिक सहसंबद्ध चर के लिए 'ब्रेक' क्यों करेगा। पीसीए द्वारा पाए गए ठिकानों पर डेटा को वापस प्रोजेक्ट करने से डेटा को सफेद करने, (या उन्हें डी-सहसंबंधित करने) का प्रभाव पड़ता है। कि पीसीए के पीछे पूरे बिंदु है।


4
क्या आपने @ttnphns द्वारा संकेत पढ़ा है? पीसीए न केवल आइजनवेक्टरों पर ध्यान देता है (जिसकी आप चर्चा करते हैं) बल्कि आइजनवेल्स (जिसे आप अनदेखा करते हैं) पर भी ध्यान देते हैं। यह महत्वपूर्ण है, क्योंकि eigenvalues ​​का उपयोग यह निर्धारित करने के लिए किया जाता है कि कौन से घटकों को बनाए रखना है और कौन से ड्रॉप करना है।
whuber

2
@ शुभंकर हां ... हां मुझे लगता है कि मैं इसे अभी प्राप्त करता हूं। इसलिए अनिवार्य रूप से, अधिक सहसंबद्ध चर विशेष eigenvectors, (दिशाओं) पर अधिक जोर देंगे, और यदि कई सहसंबंधित चर हैं, तो बहुत अधिक overemphasized 'नकली' निर्देश होंगे, जो एक 'मूल' eigenvector / दिशा को बाहर निकाल देगा। अन्यथा आसानी से देखा गया है। क्या मैं आपको सही समझ रहा हूँ?
स्पेसी

2
वह काफी करीब है, मोहम्मद। वास्तविकता यह है कि सहसंबद्ध चर का एक सेट कई प्रमुख घटकों (eigenvectors) पर "लोड" कर सकता है, इसलिए इस तरह के सेट से कई चर सहित कई eigenvectors का वजन कम होगा - और इस तरह सभी eigenvectors की दिशाओं को भी बदल देगा।
whuber

1

मेरी समझ से सहसंबद्ध चर ठीक हैं, क्योंकि पीसीए वैक्टर हैं जो ऑर्थोगोनल हैं।


5
आप ठीक कह रहे हैं, लेकिन क्या आप यह समझाना चाहेंगे कि ऑर्थोगोनलिटी का पहले से वेरिएबल को त्यागने या न करने पर कोई असर पड़ता है?
whuber

-1

खैर, यह आपके एल्गोरिथ्म पर निर्भर करता है। अत्यधिक सहसंबद्ध चर का मतलब हो सकता है एक बीमार-मैट्रिक्स। यदि आप एक एल्गोरिथ्म का उपयोग करते हैं जो उस के प्रति संवेदनशील है तो यह समझ में आ सकता है। लेकिन मैंने यह कहने की हिम्मत की कि अधिकांश आधुनिक एल्गोरिदम का उपयोग eigenvalues ​​और eigenvectors को क्रैंक करने के लिए किया जाता है। अत्यधिक सहसंबद्ध चर को हटाने का प्रयास करें। क्या eigenvalues ​​और eigenvector में बहुत परिवर्तन होता है? यदि वे करते हैं, तो बीमार कंडीशनिंग जवाब हो सकता है। क्योंकि अत्यधिक सहसंबद्ध चर जानकारी नहीं जोड़ते हैं, PCA अपघटन नहीं बदलना चाहिए


4
दुर्भाग्य से, पीसीए करता बदलने के लिए: यह लगभग गारंटी है।
whuber

1
@ शुभंकर वाह, बड़ी मात्रा में प्रतिक्रियाएं, और बहुत जानकारीपूर्ण। मेरी टिप्पणी के लिए क्षमा करें, यह पूरी तरह से गलत था। मेरी गलती। बहुत जानकारीपूर्ण उत्तर बीटीडब्ल्यू
जुआनसेंट्रो

4
मैं पूरी तरह से गलत उत्तरों से सबसे अधिक सीखता हूं, जुआनसेंट्रो - विशेष रूप से मेरे अपने, जो सौभाग्य से शायद ही कभी सार्वजनिक रूप से बाहर निकलते हैं :-)। मेरे पास आपके विचार समान थे जब तक @ttnphns ने एक टिप्पणी नहीं छोड़ी।
whuber

-1

निर्भर करता है कि आप किस सिद्धांत घटक चयन विधि का उपयोग करते हैं?

मैं किसी भी सिद्धांत घटक का उपयोग eigenvalue> 1 के साथ करता हूं। इसलिए यह मुझे प्रभावित नहीं करेगा।

और ऊपर दिए गए उदाहरणों से भी कथानक की विधि आमतौर पर सही का चयन करेगी। यदि आप सभी को पहले से जानते हैं। हालाँकि यदि आपने 'प्रमुख' शब्द के साथ सिद्धांत घटक को चुना है तो आप नेतृत्व में भटक जाएंगे। लेकिन यह एक डरावनी साजिश का उपयोग करने का सही तरीका नहीं है!


5
साइट पर आपका स्वागत है, क्रिस। दुर्भाग्य से, इनमें से कोई भी तदर्थ प्रक्रिया विशेष रूप से रक्षात्मक नहीं है। ध्यान दें कि पहले मामले में आप अपने डेटा के आकार को बिल्कुल भी नहीं बदल सकते थे और उन सभी को चुनने से लेकर उनमें से किसी एक को चुनने के लिए नहीं जा सकते थे (बस एक स्थिर द्वारा सब कुछ गुणा करके)।
कार्डिनल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.